🔍 PS

Pattern Scout Pattern Scout

디자인 패턴을 탐색하고 나만의 시스템을 구축해보세요. 지금! Explore design patterns and build your own system. Now!

155 패턴 Patterns
8 카테고리 Categories

🎛️ Orchestration & Control (47)

액션 선택자 패턴 Action-Selector Pattern

emerging

도구 피드백이 컨텍스트 윈도우에 다시 들어가면 신뢰할 수 없는 입력이 에이전트의 추론을 가로채어 임의의 유해한 작업을 유발할 수 있습니다. Untrusted input can hijack an agent's reasoning once tool feedback re-enters the context window, leading to arbitrary, harmful actions.

#prompt-injection #control-flow #safety +1
클릭하여 상세 보기 Click for details

에이전트 주도 리서치 Agent-Driven Research

established

전통적인 리서치 방법은 새로운 결과를 기반으로 검색 전략을 조정하는 능력이 부족하여 효율성과 잠재적 발견을 제한합니다. Traditional research methods lack ability to adapt search strategies based on emerging results, limiting efficiency and potential discoveries.

#research #information-retrieval #tool-use +2
클릭하여 상세 보기 Click for details

모델 성격 기반 에이전트 모드 Agent Modes by Model Personality

emerging

서로 다른 AI 모델은 근본적으로 다른 성격과 작업 스타일을 가지고 있습니다. 모든 모델을 동일하게 취급하면 최적이 아닌 결과가 발생합니다. 일부 모델은 즉시 명령을 실행하려 하고, 다른 모델은 행동 전 철저한 조사를 선호합니다. Different AI models have fundamentally different personalities and working styles. Treating all models the same leads to suboptimal outcomes. Some models are 'trigger happy' and want to run commands immediately, while others prefer thorough research before acting.

#model-personality #interaction-modes #multi-model +2
클릭하여 상세 보기 Click for details

자율 워크플로우 에이전트 아키텍처 Autonomous Workflow Agent Architecture

established

복잡하고 장기 실행되는 엔지니어링 워크플로우는 광범위한 인간 감독이 필요합니다. 수동 조정, 지속적인 오류 모니터링, 워크플로우 단계 간 컨텍스트 전환이 생산성을 저하시킵니다. Complex, long-running engineering workflows require extensive human oversight. Manual coordination, constant monitoring for errors, and context switching between workflow stages reduce productivity.

#workflow-automation #containerization #multi-agent +2
클릭하여 상세 보기 Click for details

하드 비용 상한이 있는 예산 인식 모델 라우팅 Budget-Aware Model Routing with Hard Cost Caps

established

에이전트 시스템은 기본적으로 모든 요청을 가장 강력한 모델로 라우팅하여 비용이 조용히 증가하고 부하 시 처리량이 감소합니다. 프롬프트의 소프트 예산 가이드는 모델 선택이 언어 출력이 아닌 제어 코드에서 이루어지기 때문에 충분하지 않습니다. 팀은 어려운 작업의 품질을 유지하면서 일상적인 작업의 토큰 비용 폭주를 방지하는 결정론적 가드레일이 필요합니다. Agent systems often route every request to the strongest model by default, which quietly inflates cost and reduces throughput under load. Soft budget guidance in prompts is not enough because model selection happens in control code, not language outputs. Teams need deterministic guardrails that preserve quality for hard tasks while preventing runaway token spend for routine work.

#routing #cost-control #multi-model +2
클릭하여 상세 보기 Click for details

배를 불태워라 (레거시 제거) Burn the Boats

emerging

빠르게 변하는 AI 개발에서 '잘 작동하는' 기능이나 워크플로우를 유지하면 팀이 새로운 패러다임을 완전히 수용하지 못합니다. 기존 기능의 편안함이 혁신을 방해하는 닻이 됩니다. 이전 접근 방식이 이미 구식인 경우에도 마찬가지입니다. In fast-moving AI development, holding onto features or workflows that are 'working fine' prevents teams from fully embracing new paradigms. The comfort of existing functionality becomes an anchor that holds back innovation—even when the old approach is obsolete.

#feature-killing #forced-evolution #courage +3
클릭하여 상세 보기 Click for details

연속 자율 작업 루프 패턴 Continuous Autonomous Task Loop Pattern

established

전통적인 개발 워크플로우는 지속적인 인간 개입이 필요합니다: 수동 작업 선택, 컨텍스트 전환, 속도 제한 처리, 반복적인 git 작업. Traditional development workflows require constant human intervention: manual task selection, context switching, rate limit handling, and repetitive git operations.

#autonomous-execution #task-loop #rate-limiting +2
클릭하여 상세 보기 Click for details

크로스 사이클 합의 릴레이 Cross-Cycle Consensus Relay

emerging

여러 사이클(분, 시간, 일)에 걸쳐 실행되는 자율 멀티 에이전트 루프는 사이클 간에 컨텍스트, 결정, 다음 작업을 안정적으로 전달하는 방법이 필요합니다. 인메모리 상태는 충돌이나 재시작 시 손실됩니다. 일반적인 체크포인트 파일은 에이전트가 후속 사이클에서 좋은 결정을 내리는 데 필요한 구조화된 추론을 인코딩하지 않습니다. 구조화된 릴레이 메커니즘 없이 자율 루프는 드리프트, 반복, 정체 문제를 겪습니다. Autonomous multi-agent loops that run across many cycles (minutes, hours, or days) need a way to reliably transfer context, decisions, and next actions between cycles. In-memory state is lost on crash or restart. Generic checkpoint files don't encode the structured reasoning — what was decided, why, and what comes next — that agents need to make good decisions in subsequent cycles. Without a structured relay mechanism, autonomous loops suffer from drift, repetition, and stalls.

#multi-agent #state-management #persistence +3
클릭하여 상세 보기 Click for details

커스텀 샌드박스 백그라운드 에이전트 Custom Sandboxed Background Agent

emerging

기성 코딩 에이전트는 너무 일반적이거나(회사별 환경과 통합되지 않음), 특정 벤더에 종속되어 있거나(하나의 모델 제공자에 묶임), 제한된 컨텍스트를 가지고 있습니다(내부 인프라에 접근 불가). 기업은 특정 개발 환경에서 작동하고, 폐쇄 피드백 루프로 반복하고, 실시간 가시성을 제공하며, 모델에 구애받지 않는 코딩 에이전트가 필요합니다. Off-the-shelf coding agents are either too generic (not integrated with company-specific environments), vendor-locked (tied to one model provider), or have limited context (can't access internal infrastructure). Companies need coding agents that work within their specific development environment, iterate with closed feedback loops, provide real-time visibility, and are model-agnostic.

#background-agent #sandboxed #model-agnostic +4
클릭하여 상세 보기 Click for details

분리된 단계 분리 Discrete Phase Separation

emerging

리서치, 계획, 구현을 하나의 컨텍스트에서 혼합하면 출력 품질이 저하되고 컨텍스트 오염이 발생합니다. Mixing research, planning, and implementation in one context degrades output quality and causes context pollution.

#orchestration #planning #research +2
클릭하여 상세 보기 Click for details

내구성 기능보다 일회용 스캐폴딩 Disposable Scaffolding Over Durable Features

best-practice

복잡한 내구성 기능이 더 나은 모델이 도착하면 구식이 되어 엔지니어링 노력이 낭비됩니다. Complex, durable features become obsolete when better models arrive, wasting engineering effort.

#bitter-lesson #temporary-tooling #adaptability +1
클릭하여 상세 보기 Click for details

클라우드 워커를 활용한 분산 실행 Distributed Execution with Cloud Workers

emerging

단일 세션 에이전트 실행은 팀 전체 AI 코드 생성 워크로드를 확장할 수 없습니다. Single-session agent execution cannot scale for team-wide AI code generation workloads.

#distributed-systems #parallelization #cloud +2
클릭하여 상세 보기 Click for details

이중 LLM 패턴 Dual LLM Pattern

emerging

신뢰할 수 있는 데이터와 신뢰할 수 없는 데이터를 모두 처리하는 단일 LLM은 프롬프트 인젝션 공격에 취약합니다. A single LLM processing both trusted and untrusted data is vulnerable to prompt injection attacks.

#privilege-separation #quarantined-llm #security
클릭하여 상세 보기 Click for details

멀티 에이전트 네트워크의 경제적 가치 신호 Economic Value Signaling in Multi-Agent Networks

experimental-but-awesome

많은 자율 에이전트가 동시에 실행되는 멀티 에이전트 시스템에서 작업 우선순위 결정이 어려워집니다. 에이전트에는 작업 요청의 긴급성, 품질 또는 중요성을 신호하는 자연스러운 메커니즘이 없습니다. 표준 메시지 큐는 모든 에이전트 간 메시지를 동등하게 취급하여 우선순위 역전, 알 수 없는 피어의 작업을 수락할 인센티브 부재, 에이전트 수에 비례하는 조정 오버헤드, 상호 보완적 역량을 가진 피어 발견의 어려움을 초래합니다. In multi-agent systems with many autonomous agents running concurrently, task prioritization becomes difficult. Agents have no natural mechanism to signal urgency, quality, or importance of work requests. Standard message queues treat all inter-agent messages as equal, leading to priority inversion, no natural incentive for agents to accept tasks from unknown peers, coordination overhead increasing linearly with agent count, and difficulty discovering peers with complementary capabilities.

#multi-agent #coordination #incentives +3
클릭하여 상세 보기 Click for details

명시적 사후 샘플링 플래너 Explicit Posterior-Sampling Planner

emerging

임시 휴리스틱에 의존하는 에이전트는 탐색을 제대로 수행하지 못해 막다른 길에서 토큰과 API 호출을 낭비합니다. Agents relying on ad-hoc heuristics explore poorly, wasting tokens and API calls on dead ends.

#RL #PSRL #exploration +2
클릭하여 상세 보기 Click for details

어시스턴트보다 팩토리 모델 Factory over Assistant

validated-in-production

'어시스턴트' 모델은 사이드바에서 에이전트와 일대일로 작업하며, 에이전트가 작업하는 것을 지켜보고, 왕복하는 방식으로 생산성과 확장성을 제한합니다. 인간이 피드백 루프의 병목이 됩니다. 사이드바에서 지켜볼 때 한 번에 하나의 에이전트만 실행할 수 있습니다. The 'assistant' model—working one-on-one with an agent in a sidebar, watching it work, ping-ponging back and forth—limits productivity and scalability. The human becomes the bottleneck as the feedback loop. You can only run one agent at a time when watching it in a sidebar.

#parallelism #autonomous-agents #factory +3
클릭하여 상세 보기 Click for details

불변 계약으로서의 기능 목록 Feature List as Immutable Contract

emerging

장기 실행 에이전트는 실패 모드를 보입니다: 조기 완료 선언, 테스트 삭제를 통한 범위 확장, 환각적 완료, 세션 간 진행 상황 망각. Long-running agents exhibit failure modes: premature victory declaration, scope creep via test deletion, hallucinated completeness, and progress amnesia across sessions.

#scope-control #acceptance-criteria #anti-scope-creep +1
클릭하여 상세 보기 Click for details

하이브리드 LLM/코드 워크플로우 코디네이터 Hybrid LLM/Code Workflow Coordinator

proposed

LLM 기반 워크플로우는 비결정적입니다. 일부 작업에서는 간헐적인 오류도 허용할 수 없습니다. 프로토타이핑을 위한 유연성과 중요한 경우 결정론 모두 필요합니다. LLM-driven workflows are non-deterministic. For some tasks, occasional errors are unacceptable. You need both flexibility for prototyping and determinism when it matters.

#hybrid #llm-driven #code-driven +3
클릭하여 상세 보기 Click for details

추론 시간 스케일링 Inference-Time Scaling

emerging

전통적인 언어 모델은 훈련 후 성능이 고정됩니다. 어려운 문제에서 추론 시간에 더 많은 계산 자원을 할당하여 '더 열심히 생각'할 수 없습니다. Traditional language models have fixed performance once trained. For challenging problems, we cannot simply 'think harder' by allocating more computational resources at inference time.

#scaling #inference #compute +3
클릭하여 상세 보기 Click for details

초기화-유지관리 이중 에이전트 아키텍처 Initializer-Maintainer Dual Agent Architecture

validated-in-production

장기 실행 에이전트 프로젝트는 다른 생명주기 단계에서 별개의 실패 모드에 직면합니다. 단일 에이전트 접근 방식은 각 세션을 과도하게 엔지니어링하거나 기초에 투자를 적게 합니다. Long-running agent projects face distinct failure modes at different lifecycle stages. Single-agent approaches either over-engineer each session or under-invest in foundations.

#long-running-agents #session-handoff #lifecycle-specialization +1
클릭하여 상세 보기 Click for details

제어의 역전 Inversion of Control

validated-in-production

사용자 주도 상호작용이 에이전트 자율성과 처리량을 제한하여 지속적인 인간 프롬프팅이 필요합니다. User-driven interaction limits agent autonomy and throughput, requiring constant human prompting.

#orchestration #autonomy #control +1
클릭하여 상세 보기 Click for details

반복적 다중 에이전트 브레인스토밍 Iterative Multi-Agent Brainstorming

experimental-but-awesome

단일 AI 에이전트 인스턴스는 복잡한 문제나 창의적 아이디어 도출에서 지역 최적점에 갇히거나 다양한 솔루션 범위를 탐색하지 못할 수 있습니다. A single AI agent instance might get stuck in a local optimum or fail to explore a diverse range of solutions for complex problems or creative ideation.

#multi-agent #brainstorming #parallel-processing +2
클릭하여 상세 보기 Click for details

레인 기반 실행 큐잉 Lane-Based Execution Queueing

validated-in-production

전통적인 에이전트 시스템은 모든 작업을 단일 큐를 통해 직렬화하여 병목 현상을 만듭니다. 동시 실행은 인터리빙 위험, 경쟁 조건, 데드락 위험을 야기합니다. Traditional agent systems serialize all operations through a single queue, creating bottlenecks. Concurrent execution causes interleaving hazards, race conditions, and deadlock risks.

#queueing #concurrency #lanes +3
클릭하여 상세 보기 Click for details

언어 에이전트 트리 검색 (LATS) Language Agent Tree Search (LATS)

emerging

현재 언어 에이전트는 여러 솔루션 경로 탐색이 필요한 복잡한 추론 작업에서 어려움을 겪습니다. Current language agents often struggle with complex reasoning tasks that require exploration of multiple solution paths.

#search #monte-carlo #tree-search +3
클릭하여 상세 보기 Click for details

LLM 맵-리듀스 패턴 LLM Map-Reduce Pattern

emerging

하나의 컨텍스트에서 여러 신뢰할 수 없는 항목을 처리하면 교차 오염과 프롬프트 인젝션 전파 위험이 있습니다. Processing multiple untrusted items in one context risks cross-contamination and prompt injection propagation.

#map-reduce #sub-agents #isolation +2
클릭하여 상세 보기 Click for details

복잡한 편집을 위한 다중 모델 오케스트레이션 Multi-Model Orchestration for Complex Edits

validated-in-production

단일 대형 언어 모델은 다중 파일 코드 편집과 같은 복잡한 작업의 모든 하위 작업에 최적으로 적합하지 않을 수 있습니다. 컨텍스트 검색, 코드 생성, 편집 적용과 같은 작업은 다른 요구사항을 가집니다. A single large language model may not be optimally suited for all sub-tasks in complex operations like multi-file code editing. Tasks like context retrieval, code generation, and edit application have different requirements.

#multi-model #code-generation #code-editing +2
클릭하여 상세 보기 Click for details

아티팩트 기반 분석 파이프라인 오케스트레이션 Artifact-Driven Analysis Pipeline Orchestration

emerging

복잡한 데이터 분석 작업은 많은 순차적 또는 병렬 처리 단계를 실행해야 하며, 각 단계는 후속 단계에 입력되는 중간 아티팩트를 생성합니다. 이러한 단계를 수동으로 조정하는 것 — 올바른 순서 보장, 출력 집계, 최종 통합 결과 생성 — 은 지루하고 오류가 발생하기 쉽습니다. 전통적인 스크립팅 접근법은 파이프라인을 하드코딩하여 단계를 추가, 재정렬 또는 디버깅할 때 유연하지 않습니다. Complex data analysis tasks often require running many sequential or parallel processing steps, each producing intermediate artifacts that feed into subsequent stages. Manually coordinating these steps — ensuring correct ordering, aggregating outputs, and producing a final unified result — is tedious and error-prone. Traditional scripting approaches hardcode the pipeline, making it inflexible when steps need to be added, reordered, or debugged.

#pipeline #multi-step #orchestration +3
클릭하여 상세 보기 Click for details

반대자 프로세서 / 다중 에이전트 토론 패턴 Opponent Processor / Multi-Agent Debate Pattern

emerging

단일 에이전트 의사 결정은 확증 편향, 제한된 관점, 불충분한 검토, 검토되지 않은 가정으로 어려움을 겪습니다. Single-agent decision making suffers from confirmation bias, limited perspectives, insufficient scrutiny, and unexamined assumptions.

#multi-agent #debate #adversarial +2
클릭하여 상세 보기 Click for details

오라클과 워커 멀티 모델 접근법 Oracle and Worker Multi-Model Approach

emerging

모든 작업에 비싸고 강력한 모델을 사용하는 것은 비용이 많이 들고 비효율적입니다. Using expensive, powerful models for all tasks is cost-prohibitive and inefficient.

#multi-model #cost-optimization #strategic-reasoning +1
클릭하여 상세 보기 Click for details

병렬 도구 호출 학습 Parallel Tool Call Learning

emerging

에이전트가 병렬로 실행할 수 있는 경우에도 도구 호출을 순차적으로 실행하여 불필요한 지연을 유발합니다. 기본 모델은 훈련 신호 없이 자연스럽게 병렬화하지 않을 수 있습니다. Agents execute tool calls sequentially even when they could run in parallel, causing unnecessary latency. Base models may not naturally parallelize without training signal.

#parallelization #latency-optimization #tool-use +2
클릭하여 상세 보기 Click for details

조건부 병렬 도구 실행 Conditional Parallel Tool Execution

validated-in-production

모든 도구를 엄격하게 순차적으로 실행하면 지연이 발생하고, 고려 없이 병렬 실행하면 경쟁 조건 위험이 있습니다. Executing all tools strictly sequentially causes delays, while parallel execution without consideration risks race conditions.

#parallel-execution #tool-orchestration #concurrency +1
클릭하여 상세 보기 Click for details

계획 후 실행 패턴 Plan-Then-Execute Pattern

established

계획과 실행을 동시에 수행하는 에이전트는 실행 중 프롬프트 인젝션에 취약합니다. Agents that plan and execute simultaneously are vulnerable to prompt injection mid-execution.

#planning #control-flow-integrity #prompt-injection +1
클릭하여 상세 보기 Click for details

장기 실행 에이전트를 위한 플래너-워커 분리 Planner-Worker Separation for Long-Running Agents

emerging

복잡한 다주 프로젝트를 위해 여러 AI 에이전트를 병렬로 실행하면 상당한 조정 문제가 발생합니다. 수평적 구조는 충돌과 중복 작업을 일으킵니다. 공유 파일을 통한 동적 조정과 잠금은 병목 현상이 됩니다. 동등한 지위의 에이전트는 위험 회피적이 되어 어려운 작업을 피합니다. 어려운 문제나 전체 프로젝트 방향의 소유권을 가지는 에이전트가 없습니다. Running multiple AI agents in parallel for complex, multi-week projects creates significant coordination challenges. Flat structures lead to conflicts and duplicated work. Dynamic coordination through shared files with locking becomes a bottleneck. Equal-status agents become risk-averse, avoiding difficult tasks. No agent takes ownership of hard problems or overall project direction.

#multi-agent #coordination #long-running +2
클릭하여 상세 보기 Click for details

모델 진화에 따른 점진적 자율성 Progressive Autonomy with Model Evolution

best-practice

이전 모델을 위해 구축된 에이전트 스캐폴딩이 모델이 개선됨에 따라 불필요한 오버헤드가 되어 프롬프트 비대화를 유발합니다. Agent scaffolding built for older models becomes unnecessary overhead as models improve, causing prompt bloat.

#model-evolution #scaffolding #autonomy +1
클릭하여 상세 보기 Click for details

점진적 복잡성 확대 Progressive Complexity Escalation

emerging

조직이 첫날부터 지나치게 야심찬 기능으로 AI 에이전트를 배포하여 신뢰할 수 없는 출력을 초래합니다. Organizations deploy AI agents with overly ambitious capabilities from day one, leading to unreliable outputs.

#capabilities #gradual-rollout #risk-management +1
클릭하여 상세 보기 Click for details

재귀적 Best-of-N 위임 Recursive Best-of-N Delegation

emerging

재귀적 위임(부모 -> 서브에이전트 -> 서브서브에이전트)에는 실패 모드가 있습니다: 단일 약한 서브에이전트 결과가 부모의 다음 단계를 오염시킬 수 있습니다. 오류가 트리 위로 누적됩니다. 순수 재귀는 노드가 불확실할 때 병렬성을 제대로 활용하지 못합니다. Recursive delegation (parent -> sub-agents -> sub-sub-agents) has a failure mode: a single weak sub-agent result can poison parent's next steps. Errors compound up the tree. Pure recursion also underuses parallelism when a node is uncertain.

#recursion #best-of-n #parallel-sandboxes +5
클릭하여 상세 보기 Click for details

자기 재작성 메타 프롬프트 루프 Self-Rewriting Meta-Prompt Loop

emerging

정적 시스템 프롬프트가 에이전트가 새로운 작업과 엣지 케이스를 만날 때 오래되거나 취약해집니다. Static system prompts become stale or overly brittle as an agent encounters new tasks and edge cases.

#meta-prompting #self-improvement #system-prompt +1
클릭하여 상세 보기 Click for details

명세 기반 에이전트 개발 Specification-Driven Agent Development

proposed

수작업 프롬프트나 느슨한 사용자 스토리는 모호성의 여지를 남겨 에이전트가 방황하거나 충돌하는 코드를 생성할 수 있습니다. Hand-crafted prompts or loose user stories leave room for ambiguity; agents can wander or produce conflicting code.

#spec-first #scaffolding #contract +1
클릭하여 상세 보기 Click for details

정지 훅 자동 계속 패턴 Stop Hook Auto-Continue Pattern

emerging

에이전트가 모든 요구사항을 완료하기 전에 조기에 중지하고, 완료되지 않았는데 완료됐다고 주장할 수 있습니다. Agents may stop prematurely before completing all requirements, claiming they're done when they're not.

#hooks #automation #testing +2
클릭하여 상세 보기 Click for details

서브 에이전트 생성 패턴 Sub-Agent Spawning

validated-in-production

복잡한 작업이 단일 에이전트 컨텍스트 한계를 초과하고 다른 하위 작업에 전문화된 처리가 필요합니다. Complex tasks exceed single agent context limits and require specialized handling for different subtasks.

#orchestration #context #scalability +4
클릭하여 상세 보기 Click for details

작업 위임을 위한 제목 위생 관리 Subject Hygiene for Task Delegation

validated-in-production

Task 도구를 통해 서브 에이전트에 작업을 위임할 때, 비어 있거나 일반적인 작업 제목은 대화를 추적 불가능하고 참조 불가능하며 혼란스럽게 만듭니다. 제목이 비어 있는 여러 서브 에이전트는 구별할 수 없습니다. 88개 세션의 48개 Task 호출 분석에서 빈 작업 제목이 주요 문제점으로 확인되었습니다. When delegating work to subagents via the Task tool, empty or generic task subjects make conversations untraceable, unreferencable, and confusing. Multiple subagents with empty subjects are indistinguishable. From 48 Task invocations across 88 sessions, empty task subjects were identified as a major pain point.

#subagents #delegation #traceability +3
클릭하여 상세 보기 Click for details

스웜 마이그레이션 패턴 Swarm Migration Pattern

validated-in-production

대규모 마이그레이션이 수백 개 파일에 걸친 변경을 필요로 하여 단일 에이전트 용량을 초과합니다. Large-scale migrations require changes across hundreds of files, exceeding single agent capacity.

#swarm #map-reduce #migration +1
클릭하여 상세 보기 Click for details

3단계 인식 아키텍처 Three-Stage Perception Architecture

established

복잡한 AI 에이전트는 비구조화된 입력으로 어려움을 겪습니다. 명확한 관심사 분리 없이는 에이전트가 모놀리식이 되어 디버그, 확장, 독립적 스케일링이 어려워집니다. Complex AI agents struggle with unstructured inputs. Without clear separation of concerns, agents become monolithic and difficult to debug, extend, or scale independently.

#architecture #perception #processing +3
클릭하여 상세 보기 Click for details

도구 기능 구획화 Tool Capability Compartmentalization

emerging

MCP는 혼합 도구를 권장하며, 종종 개인 데이터 리더, 웹 페처, 라이터를 단일 호출 가능 단위로 결합합니다. 이는 프롬프트 인젝션 체인의 치명성을 증폭시킵니다. MCP encourages mix-and-match tools, often combining private-data readers, web fetchers, and writers in a single callable unit. This amplifies the lethality of prompt-injection chains.

#capability-segregation #least-privilege #tool-permissions +1
클릭하여 상세 보기 Click for details

도구 선택 가이드 Tool Selection Guide

emerging

AI 에이전트가 주어진 작업에 최적의 도구를 선택하는 데 어려움을 겪어 비효율적인 워크플로우가 발생합니다. 일반적인 안티 패턴으로는 Edit이 적절한 상황에서 Write 사용, 간단한 탐색에 서브 에이전트 실행, 코드 변경 후 빌드 검증 건너뛰기, 병렬이 더 빠를 때 순차적 탐색 등이 있습니다. 이러한 비효율은 긴 세션에서 누적됩니다. AI agents often struggle to select the optimal tool for a given task, leading to inefficient workflows. Common anti-patterns include using Write when Edit would be more appropriate, launching subagents for simple exploration tasks, skipping build verification after code changes, and performing sequential exploration when parallel would be faster. These inefficiencies compound across long sessions.

#tools #workflow #best-practices +4
클릭하여 상세 보기 Click for details

생각의 나무 추론 Tree-of-Thought Reasoning

established

선형 사고 연쇄가 대안적 솔루션 경로 탐색을 제한하고 지역 최적점에 갇힐 수 있습니다. Linear chain-of-thought limits exploration of alternative solution paths and can get stuck in local optima.

#branching #deliberate-reasoning #search +1
클릭하여 상세 보기 Click for details

워크스페이스 네이티브 멀티 에이전트 오케스트레이션 Workspace-Native Multi-Agent Orchestration

emerging

많은 팀이 에이전트 도구가 일상적인 협업 환경과 분리되어 있어 에이전트 워크플로우 실행에 어려움을 겪습니다. 그 결과 컨텍스트가 파편화되고, 통합이 취약하며, 설정 오버헤드가 높습니다. 비엔지니어 사용자에게 에이전트 생성과 버전 관리가 어렵고, 컨텍스트와 메모리가 임시 시스템에 분산되어 있으며, 멀티 에이전트 워크플로우에 커스텀 글루가 필요하고, 운영 도구와의 통합 비용이 높습니다. Many teams struggle to run agentic workflows because their agent tooling is separate from their day-to-day collaboration environment. The result is fragmented context, brittle integrations, and high setup overhead. Agents are difficult to create and version for non-engineering users, context and memory are spread across ad hoc systems, multi-agent workflows require custom glue, and integrating with operational tools is expensive.

#multi-agent #orchestration #workflow-automation +6
클릭하여 상세 보기 Click for details

🧠 Context & Memory (19)

에이전트 기반 코드베이스 Q&A / 온보딩 Agent-Powered Codebase Q&A / Onboarding

validated-in-production

크거나 익숙하지 않은 코드베이스를 이해하는 것은 특히 온보딩하거나 복잡한 시스템을 디버깅할 때 상당한 도전입니다. 수동으로 코드 경로를 검색하고 추적하는 것은 시간이 많이 걸리고 오류가 발생하기 쉽습니다. Understanding a large or unfamiliar codebase is a significant challenge, especially when onboarding or debugging complex systems. Manually searching and tracing code paths is time-consuming and error-prone.

#code-understanding #onboarding #q-and-a +4
클릭하여 상세 보기 Click for details

컨텍스트 최소화 패턴 Context-Minimization Pattern

emerging

사용자 제공 또는 오염된 텍스트가 컨텍스트에 남아 이후 프롬프트 인젝션 공격을 가능하게 합니다. User-supplied or tainted text lingers in context, enabling later prompt injection attacks.

#context-hygiene #taint-removal #prompt-injection +1
클릭하여 상세 보기 Click for details

컨텍스트 윈도우 불안 관리 Context Window Anxiety Management

emerging

모델은 '컨텍스트 불안'을 보입니다 - 컨텍스트 윈도우 제한에 가까워짐을 인식하고 충분한 컨텍스트가 남아 있어도 적극적으로 요약하거나 작업을 서둘러 마무리합니다. 이는 조기 완료, 지름길, 불완전한 작업으로 이어집니다. Models exhibit 'context anxiety' - they become aware of approaching context window limits and proactively summarize or rush to close tasks, even when sufficient context remains. This leads to premature completion, shortcuts, and incomplete work.

#context-anxiety #token-management #premature-completion +1
클릭하여 상세 보기 Click for details

컨텍스트 윈도우 자동 압축 Context Window Auto-Compaction

validated-in-production

컨텍스트 오버플로우는 에이전트 신뢰성의 조용한 킬러입니다. 누적된 대화 기록이 모델의 컨텍스트 윈도우를 초과하면 API 오류가 발생하여 수동 개입과 복잡한 재시도 로직이 필요합니다. Context overflow is a silent killer of agent reliability. When accumulated conversation history exceeds the model's context window, API errors occur, requiring manual intervention and complex retry logic.

#context-management #compaction #overflow-recovery +2
클릭하여 상세 보기 Click for details

큐레이션된 코드 컨텍스트 윈도우 Curated Code Context Window

validated-in-production

모든 소스 파일을 컨텍스트에 로드하면 노이즈로 모델이 압도되고 토큰이 낭비됩니다. Loading all source files into context overwhelms the model with noise and wastes tokens.

#context-management #code-agent #file-selection +1
클릭하여 상세 보기 Click for details

큐레이션된 파일 컨텍스트 윈도우 Curated File Context Window

best-practice

모든 파일을 에이전트 프롬프트에 덤프하면 토큰 한계를 빠르게 초과하고 노이즈가 발생합니다. Dumping all files into the agent's prompt quickly exceeds token limits and introduces noise.

#code-context #file-scope #relevance +1
클릭하여 상세 보기 Click for details

동적 코드 주입 (온디맨드 파일 가져오기) Dynamic Code Injection (On-Demand File Fetch)

established

프롬프트에 파일을 수동으로 복사/붙여넣기하는 것은 지루하고 토큰을 낭비하며 워크플로우 모멘텀을 방해합니다. Manually copying/pasting files into prompts is tedious, wastes tokens, and interrupts workflow momentum.

#file-injection #at-mention #slash-commands +1
클릭하여 상세 보기 Click for details

동적 컨텍스트 주입 Dynamic Context Injection

established

계층화된 구성 파일이 좋은 기본 컨텍스트를 제공하지만, 에이전트는 종종 세션 중 특정 정보를 온디맨드로 필요로 합니다. 정적 구성 파일을 지속적으로 편집하거나 큰 텍스트 청크를 프롬프트에 붙여넣는 것은 비효율적입니다. While layered config files provide good baseline context, agents often need specific information on-demand during sessions. Constantly editing static config files or pasting large text chunks into prompts is inefficient.

#context-management #dynamic-context #lazy-loading +3
클릭하여 상세 보기 Click for details

일화적 메모리 검색 및 주입 Episodic Memory Retrieval & Injection

validated-in-production

에이전트가 세션 간 영구 메모리가 부족하여 관련 과거 경험과 결정을 잊어버립니다. Agents lack persistent memory across sessions, forgetting relevant past experiences and decisions.

#episodic-memory #vector-db #retrieval-augmented +1
클릭하여 상세 보기 Click for details

파일시스템 기반 에이전트 상태 Filesystem-Based Agent State

established

에이전트 상태가 충돌이나 장시간 작업 중단 시 손실되어 처음부터 다시 시작해야 합니다. Agent state is lost on crashes or long-running task interruptions, requiring restart from scratch.

#state-management #persistence #resumption +1
클릭하여 상세 보기 Click for details

계층화된 구성 컨텍스트 Layered Configuration Context

proposed

에이전트가 글로벌, 프로젝트, 작업 수준에서 다른 구성이 필요하지만 플랫 구성 시스템은 이 계층을 지원하지 않습니다. Agents need different configurations at global, project, and task levels, but flat config systems don't support this hierarchy.

#configuration #layered-config #context-management +1
클릭하여 상세 보기 Click for details

실행 로그에서 메모리 합성 Memory Synthesis from Execution Logs

emerging

개별 작업 트랜스크립트는 가치 있는 학습을 담고 있지만 너무 구체적이고, 로그 전체에 흩어져 있으며, 추상화하기 어렵습니다. 모든 것을 기억하면 노이즈가 생기고, 모든 것을 무시하면 가치 있는 패턴을 잃습니다. Individual task transcripts contain valuable learnings but are too specific, scattered across logs, and hard to abstract. Simply memorizing everything creates noise; ignoring everything loses valuable patterns.

#memory #logs #diary +4
클릭하여 상세 보기 Click for details

능동적 에이전트 상태 외부화 Proactive Agent State Externalization

emerging

Sonnet 4.5 같은 모델이 능동적으로 파일에 노트를 작성하지만, 자체 생성된 노트는 종종 불완전하거나 중요한 맥락을 놓칩니다. Models like Sonnet 4.5 proactively write notes to files, but self-generated notes are often incomplete or miss crucial context.

#state-externalization #memory-management #self-documentation +1
클릭하여 상세 보기 Click for details

대용량 파일을 위한 점진적 공개 Progressive Disclosure for Large Files

emerging

대용량 파일(PDF, DOCX, 이미지)을 순진하게 로드하면 컨텍스트가 압도되어 관련 없는 콘텐츠에 토큰이 낭비됩니다. Large files (PDFs, DOCXs, images) overwhelm context when loaded naively, wasting tokens on irrelevant content.

#progressive-disclosure #large-files #lazy-loading +1
클릭하여 상세 보기 Click for details

정확한 프리픽스 보존을 통한 프롬프트 캐싱 Prompt Caching via Exact Prefix Preservation

emerging

장시간 실행 에이전트 대화는 이차적 성능 저하를 겪습니다: 증가하는 JSON 페이로드, 캐싱 없는 고비용 재계산, 서버 측 상태를 방지하는 ZDR 제약. Long-running agent conversations suffer from quadratic performance degradation: growing JSON payloads, expensive re-computation without caching, and ZDR constraints preventing server-side state.

#prompt-caching #exact-prefix #performance +3
클릭하여 상세 보기 Click for details

자기 정체성 축적 Self-Identity Accumulation

emerging

AI 에이전트는 세션 간 연속적인 메모리가 없습니다. 각 대화가 제로에서 시작하여 친숙함 상실, 반복적인 설명, 얕은 관계, 일반적인 응답을 초래합니다. AI agents lack continuous memory across sessions. Each conversation starts from zero, causing lost familiarity, repetitive explanations, shallow relationships, and generic responses.

#self-identity #persona #session-hooks +4
클릭하여 상세 보기 Click for details

의미론적 컨텍스트 필터링 패턴 Semantic Context Filtering Pattern

emerging

원시 데이터 소스가 LLM이 효과적으로 소비하기에 너무 장황하고 노이즈가 많아 토큰을 낭비하고 추론을 혼란스럽게 합니다. Raw data sources are too verbose and noisy for effective LLM consumption, wasting tokens and confusing reasoning.

#context-filtering #token-optimization #semantic-extraction +1
클릭하여 상세 보기 Click for details

도구 검색 지연 로딩 Tool Search Lazy Loading

emerging

MCP가 성장하면서 MCP 서버는 상당한 컨텍스트 공간을 소비하는 50개 이상의 도구를 노출할 수 있습니다. 7개 이상의 서버가 있는 문서화된 설정에서 도구 설명만으로 67k+ 토큰을 소비합니다. 이로 인해 컨텍스트 비대화, 처리 오버헤드로 인한 지연, 관련 없는 도구를 스캔하는 발견의 어려움, 실제 컨텍스트 한계를 초과하는 메모리 압력이 발생합니다. As MCP has grown, MCP servers may expose 50+ tools that consume significant context space. Documented setups with 7+ servers have been consuming 67k+ tokens just for tool descriptions. This creates context bloat, latency from processing overhead, discovery challenges scanning through irrelevant tools, and memory pressure exceeding practical context limits.

#mcp #tool-discovery #context-optimization +3
클릭하여 상세 보기 Click for details

TodoWrite를 통한 작업 기억 관리 Working Memory via TodoWrite

emerging

복잡한 다단계 작업 수행 중 AI 에이전트가 대기 중, 진행 중, 완료된 작업의 상태를 놓치고, 의존성에 의해 차단된 작업, 실행해야 할 검증 단계, 컨텍스트 전환 후 다음 행동을 추적하지 못합니다. 이로 인해 중복 작업, 누락된 작업, 혼란스러운 사용자 경험이 발생합니다. During complex multi-step tasks, AI agents lose track of what tasks are pending, in progress, or completed, which tasks are blocked by dependencies, verification steps that need to run, and next actions after context switches. This leads to redundant work, forgotten tasks, and confused users.

#context #memory #working-memory +4
클릭하여 상세 보기 Click for details

🔄 Feedback Loops (15)

AI 지원 코드 리뷰 / 검증 AI-Assisted Code Review / Verification

emerging

AI가 점점 더 많은 코드를 생성함에 따라 병목 현상이 생성에서 검증으로 이동합니다. AI 생성 코드가 의미적으로 올바르고, 의도(특히 불충분하게 지정된 경우)에 부합하며, 품질 표준을 충족하는지 확인하는 것이 중요하고 시간이 많이 걸립니다. As AI generates increasing amounts of code, the bottleneck shifts from generation to verification. Ensuring AI-generated code is semantically correct, aligns with intent (especially if underspecified), and meets quality standards becomes crucial and time-consuming.

#code-review #verification #quality-assurance +3
클릭하여 상세 보기 Click for details

CI 피드백을 포함한 백그라운드 에이전트 Background Agent with CI Feedback

validated-in-production

장시간 실행되는 작업은 에디터를 점유하고 개발자가 에이전트를 지켜봐야 합니다. 개발자는 에이전트가 업그레이드나 마이그레이션과 같은 복잡한 작업을 수행하는 동안 자리를 비울 수 없습니다. Long-running tasks tie up the editor and require developers to babysit the agent. Developers can't step away while the agent works on complex tasks like upgrades or migrations.

#asynchronous #ci #feedback +2
클릭하여 상세 보기 Click for details

코딩 에이전트 CI 피드백 루프 Coding Agent CI Feedback Loop

best-practice

동기 테스트 실행이 에이전트의 병렬 작업을 차단하여 반복 주기가 느려집니다. Synchronous test runs block agents from parallel work, slowing iteration cycles.

#CI #coding-agent #asynchronous +1
클릭하여 상세 보기 Click for details

에이전트 개선을 위한 빠른 반복 도그푸딩 Dogfooding with Rapid Iteration for Agent Improvement

best-practice

효과적인 AI 에이전트를 개발하려면 실제 사용을 이해하고 개선 사항을 빠르게 식별해야 합니다. 외부 피드백 루프는 느리고, 시뮬레이션 환경은 실제 사용의 모든 뉘앙스를 포착하지 못할 수 있습니다. Developing effective AI agents requires understanding real-world usage and quickly identifying improvements. External feedback loops are slow, and simulated environments may not capture all nuances of actual use.

#dogfooding #iterative-development #feedback-loop +3
클릭하여 상세 보기 Click for details

빠른 반복을 통한 도그푸딩 Dogfooding with Rapid Iteration

best-practice

외부 피드백 루프가 느리고 에이전트 품질에 영향을 미치는 실제 사용 뉘앙스를 놓칠 수 있습니다. External feedback loops are slow and may miss real-world usage nuances that affect agent quality.

#dogfooding #iterative-development #feedback-loop
클릭하여 상세 보기 Click for details

생각의 그래프 (GoT) Graph of Thoughts (GoT)

emerging

트리 구조는 추론 과정에서 생각의 집계나 순환을 표현할 수 없습니다. Tree structures cannot represent thought aggregation or cycles in reasoning processes.

#reasoning #graph-based #problem-solving +1
클릭하여 상세 보기 Click for details

인시던트-평가 합성 Incident-to-Eval Synthesis

emerging

많은 팀이 에이전트 평가를 실행하지만, 평가 스위트는 프로덕션에서 발생하는 실제 실패와 점점 괴리됩니다. 인시던트는 운영적으로 해결되지만, 정확한 실패 모드가 지속적인 회귀 테스트로 변환되는 경우는 드뭅니다. 이로 인해 반복적인 인시던트와 오래된 벤치마크 세트에 의한 거짓 확신이 생깁니다. Many teams run agent evaluations, but the eval suite drifts away from real failures seen in production. Incidents get resolved operationally, yet the exact failure mode is rarely converted into a durable regression test. This creates repeat incidents and false confidence from stale benchmark sets.

#evals #incidents #reliability +2
클릭하여 상세 보기 Click for details

추론 치유 코드 리뷰 보상 Inference-Healed Code Review Reward

proposed

'테스트 통과'만 확인하는 단순한 보상 함수는 미묘한 코드 품질(성능 저하, 스타일 위반, 누락된 엣지 케이스)을 포착하지 못합니다. 단일 이진 신호는 에이전트가 유지보수 가능하고 고품질의 코드를 생성하도록 안내할 수 없습니다. Simple reward functions checking only 'tests passed' fail to capture nuanced code quality (performance regressions, style violations, missing edge cases). A single binary signal can't guide agents to produce maintainable, high-quality code.

#reward-modeling #code-review #inference-healing +2
클릭하여 상세 보기 Click for details

반복적 프롬프트 및 스킬 개선 Iterative Prompt & Skill Refinement

established

에이전트 사용 시 프롬프트, 스킬, 도구의 격차가 드러나지만 체계적으로 개선할 방법이 없습니다. Agent usage reveals gaps in prompts, skills, and tools, but there's no systematic way to improve them.

#refinement #iteration #prompts +3
클릭하여 상세 보기 Click for details

반성 루프 패턴 Reflection Loop

established

LLM 출력이 자기 수정 메커니즘 없이 오류나 차선의 솔루션을 포함할 수 있습니다. LLM outputs may contain errors or suboptimal solutions without self-correction mechanisms.

#self-feedback #iterative-improvement #evaluation
클릭하여 상세 보기 Click for details

완벽한 프롬프트보다 풍부한 피드백 루프 Rich Feedback Loops > Perfect Prompts

validated-in-production

단일 프롬프트를 다듬는 것만으로는 모든 엣지 케이스를 처리할 수 없습니다. 에이전트는 자기 교정을 위해 실제 결과가 필요합니다. 또한 에이전트는 세션 품질을 시간에 따라 개선하기 위해 인간 피드백(긍정적 피드백과 교정 피드백)을 통합해야 합니다. 사용자 피드백에 더 잘 반응하는 프로젝트가 더 적은 수정과 더 나은 결과를 보입니다. Polishing a single prompt can't cover every edge-case; agents need ground truth to self-correct. Additionally, agents need to integrate human feedback (positive and corrective) to improve session quality over time. Projects that better respond to user feedback have fewer corrections and better outcomes.

#feedback #testing #reliability +3
클릭하여 상세 보기 Click for details

자기 비판 평가자 루프 Self-Critique Evaluator Loop

established

인간 선호도 레이블은 비용이 많이 들고 기본 모델이 개선됨에 따라 빠르게 구식이 됩니다. Human preference labels are costly and quickly become outdated as base models improve.

#self-critique #evaluator #reward-model +1
클릭하여 상세 보기 Click for details

자기 발견: LLM 자체 구성 추론 구조 Self-Discover: LLM Self-Composed Reasoning Structures

emerging

다른 추론 작업에는 다른 사고 전략이 필요합니다. 고정된 추론 패턴은 다양한 문제에 최적이 아닐 수 있습니다. Different reasoning tasks require different thinking strategies. Fixed reasoning patterns may be suboptimal for diverse problems.

#reasoning #self-improvement #meta-learning +1
클릭하여 상세 보기 Click for details

스펙을 테스트로 사용하는 피드백 루프 Spec-As-Test Feedback Loop

emerging

스펙 우선 프로젝트에서도 코드가 발전함에 따라 구현이 드리프트할 수 있습니다. 조용한 발산은 신뢰를 침식합니다. Even in spec-first projects, implementations can drift as code evolves. Silent divergence erodes trust.

#validation #drift-detection #continuous-testing
클릭하여 상세 보기 Click for details

보상 설계를 통한 도구 사용 인센티브 Tool Use Incentivization via Reward Shaping

emerging

코딩 에이전트가 컴파일러, 린터, 테스트 러너를 호출하는 대신 생각 토큰을 기본으로 사용하여 전문 도구를 충분히 활용하지 못합니다. Coding agents often underutilize specialized tools, defaulting to thinking tokens instead of invoking compilers, linters, or test runners.

#tool-use #reward-shaping #coding-agent +1
클릭하여 상세 보기 Click for details

📚 Learning & Adaptation (7)

에이전트 강화 미세조정 (Agent RFT) Agent Reinforcement Fine-Tuning (Agent RFT)

emerging

도메인 이동, 비효율적인 도구 사용, 최적이 아닌 추론으로 인해 에이전트가 특정 비즈니스 작업에서 성능이 저하됩니다. 전통적인 미세조정은 다단계 도구 상호작용을 엔드투엔드로 훈련할 수 없습니다. Agents underperform on specific business tasks due to domain shift, inefficient tool use, and suboptimal reasoning. Traditional fine-tuning can't train end-to-end on multi-step tool interactions.

#reinforcement-learning #fine-tuning #tool-use +2
클릭하여 상세 보기 Click for details

복합 엔지니어링 패턴 Compounding Engineering Pattern

emerging

전통적인 소프트웨어 엔지니어링은 수확 체감이 있습니다: 각 기능이 복잡성을 증가시킵니다. AI 에이전트에서는 학습이 캡처되지 않아 에이전트가 같은 실수를 반복하므로 이 문제가 증폭됩니다. Traditional software engineering has diminishing returns: each feature increases complexity. With AI agents, this is amplified as agents repeat the same mistakes because learnings aren't captured.

#learning #feedback-loops #codification +2
클릭하여 상세 보기 Click for details

프론티어 중심 개발 Frontier-Focused Development

emerging

AI 능력이 매우 빠르게 발전하여 오늘의 모델에 최적화된 제품은 몇 달 안에 구식이 됩니다. 많은 팀이 새 모델이 이미 해결하는 문제를 해결하느라 시간을 낭비하거나, 경쟁력을 유지하지 못할 특정 모델에 묶인 제품을 만듭니다. AI capabilities are advancing so rapidly that products optimized for today's models will be obsolete in months. Many teams waste time solving problems that new models already solve, or build products tied to specific models that won't stay competitive.

#frontier #state-of-the-art #model-selection +3
클릭하여 상세 보기 Click for details

메모리 강화 학습 (MemRL) Memory Reinforcement Learning (MemRL)

proposed

LLM은 런타임 자기 진화에 어려움을 겪습니다. 미세조정은 치명적 망각을 유발하고, RAG는 실제로 유용한 메모리보다 노이즈를 검색하는 의미적 유사성에 의존합니다. LLMs struggle with runtime self-evolution. Fine-tuning causes catastrophic forgetting, and RAG relies on semantic similarity that retrieves noise rather than actually useful memories.

#reinforcement-learning #episodic-memory #self-evolution +2
클릭하여 상세 보기 Click for details

출시 자체가 리서치 Shipping as Research

emerging

빠르게 변하는 AI 환경에서 확실성을 기다린 후 구축하면 항상 뒤처집니다. 전통적인 제품 개발은 출시 전 검증과 확실성을 강조하지만, 시장이 3-6주마다 변할 때는 기다릴 여유가 없습니다. In the rapidly evolving AI landscape, waiting for certainty before building means you're always behind. Traditional product development emphasizes validation and certainty before release, but when the market changes every 3-6 weeks, you can't afford to wait.

#research #experimentation #rapid-iteration +4
클릭하여 상세 보기 Click for details

스킬 라이브러리 진화 Skill Library Evolution

established

에이전트가 자주 유사한 문제를 해결하지만 매번 솔루션을 다시 발견해야 하여 토큰과 시간을 낭비합니다. 조직은 에이전트가 시간이 지남에 따라 역량을 구축하기를 원합니다. Agents frequently solve similar problems but must rediscover solutions each time, wasting tokens and time. Organizations want agents to build up capability over time.

#code-reuse #skills #learning +3
클릭하여 상세 보기 Click for details

분산 기반 RL 샘플 선택 Variance-Based RL Sample Selection

validated-in-production

모든 훈련 샘플이 RL에 동등하게 가치 있는 것은 아닙니다. 분산이 0인 샘플(항상 맞거나 항상 틀림)은 학습 신호를 제공하지 않아 비싼 컴퓨팅을 낭비합니다. Not all training samples are equally valuable for RL. Zero-variance samples (always correct or always wrong) provide no learning signal, wasting expensive compute.

#reinforcement-learning #sample-efficiency #variance +2
클릭하여 상세 보기 Click for details

Reliability & Eval (18)

액션 캐싱 및 리플레이 패턴 Action Caching & Replay Pattern

emerging

LLM 기반 에이전트 실행은 비용과 지연 시간 모두에서 비싸고 비결정적입니다. 동일한 워크플로우를 여러 번 실행하면 다른 결과가 나오고 반복적인 LLM 비용이 발생하여 회귀 테스트가 불가능합니다. LLM-based agent execution is expensive (both in costs and latency) and non-deterministic. Running the same workflow multiple times yields different results and incurs repeated LLM costs, making regression testing impossible.

#caching #replay #regression-testing +3
클릭하여 상세 보기 Click for details

적응형 샌드박스 팬아웃 컨트롤러 Adaptive Sandbox Fan-Out Controller

emerging

병렬 샌드박스는 많은 실행을 생성할 수 있지만, 정적 팬아웃 정책은 작업 난이도에 적응하지 못합니다. 일정 N 이후에는 중복 실패에 비용을 지불합니다. 프롬프트가 불충분하면 N을 늘려도 오류만 확대됩니다. 무제한 팬아웃은 예산과 속도 제한을 초과할 수 있습니다. Parallel sandboxes can spawn many runs, but static fan-out policies don't adapt to task difficulty. After some N, you're paying for redundant failures. If prompts are underspecified, scaling N just scales errors. Unbounded fan-out can overwhelm budgets and rate limits.

#fan-out #adaptive #parallel-sandboxes +4
클릭하여 상세 보기 Click for details

보상 해킹 방지 평가기 설계 Anti-Reward-Hacking Grader Design

emerging

강화 학습 훈련 중 모델은 보상을 최대화하는 방법을 적극적으로 탐색합니다. 평가기에 엣지 케이스나 허점이 있으면 모델은 실제 작업을 해결하지 않고 이를 악용하여 100% 보상 점수지만 실제 성능은 저조하게 됩니다. During reinforcement learning training, models actively search for ways to maximize reward. If graders have edge cases or loopholes, models exploit them rather than truly solving tasks, leading to 100% reward scores but poor real-world performance.

#reward-hacking #grading #reinforcement-learning +2
클릭하여 상세 보기 Click for details

비동기 코딩 에이전트 파이프라인 Asynchronous Coding Agent Pipeline

proposed

코딩 작업의 동기 실행은 계산 버블과 유휴 리소스를 생성합니다. 코딩 에이전트가 도구 호출(컴파일, 테스트)을 발행하면 해당 도구가 반환될 때까지 추론이 차단되어 GPU 활용도가 낮아지고 RL 롤아웃이 느려집니다. Synchronous execution of coding tasks creates compute bubbles and idle resources. When a coding agent issues a tool call (compile, test), it blocks further reasoning until that tool returns, leading to underutilized GPUs and slower RL rollouts.

#asynchronous #pipeline #code-agent +2
클릭하여 상세 보기 Click for details

에이전트 정책 변경을 위한 카나리 롤아웃 및 자동 롤백 Canary Rollout and Automatic Rollback for Agent Policy Changes

established

에이전트 동작은 프롬프트 업데이트, 도구 정책, 라우팅 규칙, 평가기 임계값을 통해 자주 변경됩니다. 작은 정책 수정도 비용, 지연시간, 안전성 또는 작업 품질에 광범위한 회귀를 일으킬 수 있습니다. 단계적 노출 없는 전체 롤아웃은 롤백을 느리게 하고 사용자 영향을 크게 만듭니다. Agent behavior changes frequently through prompt updates, tool policies, routing rules, and evaluator thresholds. Even small policy edits can produce broad regressions in cost, latency, safety, or task quality. Full rollouts without staged exposure make rollback slow and user impact large.

#canary #rollback #reliability +2
클릭하여 상세 보기 Click for details

CriticGPT 스타일 코드 리뷰 CriticGPT-Style Code Review

validated-in-production

인간 리뷰어가 AI 생성 코드의 미묘한 버그를 놓칠 수 있습니다, 특히 모델이 더 정교해짐에 따라. Human reviewers may miss subtle bugs in AI-generated code, especially as models become more sophisticated.

#evaluation #code-review #critique +1
클릭하여 상세 보기 Click for details

장시간 일관성 유지 작업 세션 Extended Coherence Work Sessions

rapidly-improving

초기 AI 에이전트는 짧은 일관성 창으로 고통받아 몇 분만 집중과 컨텍스트를 유지한 후 성능이 저하되었습니다. 이로 인해 몇 시간에 걸친 지속적인 노력이 필요한 복잡한 다단계 작업의 활용이 제한되었습니다. Early AI agents suffered from short coherence windows, only maintaining focus and context for a few minutes before performance degraded. This limited utility for complex, multi-stage tasks requiring sustained effort over hours.

#coherence #long-running-tasks #agent-capability +2
클릭하여 상세 보기 Click for details

장애 인식 모델 폴백 Failover-Aware Model Fallback

validated-in-production

AI 모델 요청이 다양한 이유로 실패합니다. 단순 재시도 로직은 재시도가 유효한 일시적 실패(타임아웃, 속도 제한), 재시도가 무의미한 의미적 실패(인증, 결제), 재시도가 리소스를 낭비하는 사용자 중단을 구분하지 못합니다. AI model requests fail for varied reasons. Simple retry logic fails to distinguish between transient failures (timeouts, rate limits) that benefit from retry, semantic failures (auth, billing) where retry is futile, and user aborts where retry wastes resources.

#fallback #reliability #error-classification +3
클릭하여 상세 보기 Click for details

치명적 삼중 위협 모델 Lethal Trifecta Threat Model

best-practice

신뢰할 수 없는 데이터, 도구, 송신 채널에 접근하는 에이전트가 프롬프트 인젝션 공격에 취약합니다. Agents with access to untrusted data, tools, and egress channels are vulnerable to prompt injection attacks.

#security #prompt-injection #threat-model +1
클릭하여 상세 보기 Click for details

LLM 관측성 LLM Observability

proposed

에이전트는 비결정성을 도입합니다 - 동일한 입력이 다른 출력을 생성할 수 있습니다. 이슈 디버깅은 복잡한 다단계 워크플로우 추적이 필요하지만, 표준 로깅(CloudWatch, Lambda 로그)은 탐색이 어렵습니다. 쉬운 디버깅 없이는 에이전트가 채택되지 않습니다. Agents introduce non-determinism - same input can produce different outputs. Debugging issues requires tracing complex multi-step workflows, but standard logging (CloudWatch, Lambda logs) is painful to navigate. Without easy debugging, agents won't get adopted.

#observability #logging #debugging +5
클릭하여 상세 보기 Click for details

코드 + 언어 스킬 모델 병합 Merged Code + Language Skill Model

emerging

자연어 작업과 코드 생성 모두에 뛰어난 통합 모델을 구축하려면 대규모 중앙 집중식 훈련이 필요합니다. 이는 계산 집약적이며 코드와 NL 작업을 혼합할 때 치명적 망각에 취약합니다. Building a unified model excelling at both natural language tasks and code generation requires massive centralized training. This is compute-intensive and susceptible to catastrophic forgetting when mixing code and NL tasks.

#model-merging #transfer-learning #coding-agent +2
클릭하여 상세 보기 Click for details

토큰 제한 없는 마법 No-Token-Limit Magic

experimental-but-awesome

토큰 절약을 위한 공격적인 프롬프트 압축은 추론 깊이와 자기 수정을 억제합니다. 토큰 사용의 조기 최적화는 모델이 실제로 달성할 수 있는 것의 발견을 방해합니다. Aggressive prompt compression to save tokens stifles reasoning depth and self-correction. Premature optimization of token usage prevents discovery of what the model can actually achieve.

#performance #cost #experimentation +2
클릭하여 상세 보기 Click for details

RLAIF (AI 피드백으로부터의 강화 학습) RLAIF (Reinforcement Learning from AI Feedback)

emerging

전통적인 RLHF는 비용이 많이 드는 인간 주석(레이블당 $1+)이 필요하며 느리고 확장하기 어렵습니다. Traditional RLHF requires expensive human annotation ($1+ per label) which is slow and hard to scale.

#rlhf #rlaif #constitutional-ai +2
클릭하여 상세 보기 Click for details

크로스 스텝 학습을 통한 스키마 검증 재시도 Schema Validation Retry with Cross-Step Learning

emerging

LLM이 항상 유효한 구조화된 출력을 생성하지 않습니다. 단일 시도 검증은 재시도가 성공할 수 있는 경우에도 작업 실패로 이어집니다. LLMs don't always produce valid structured output. Single-attempt validation leads to task failures even when retry would succeed.

#retry #validation #cross-step-learning +2
클릭하여 상세 보기 Click for details

구조화된 출력 명세 Structured Output Specification

established

자유 형식 에이전트 출력은 검증, 파싱, 다운스트림 시스템과의 통합이 어렵습니다. Free-form agent outputs are difficult to validate, parse, and integrate with downstream systems.

#structured-output #schema #validation +1
클릭하여 상세 보기 Click for details

버전 관리 헌법 거버넌스 Versioned Constitution Governance

emerging

에이전트가 자체 헌법(정렬 규칙)을 재작성할 때, 변경 사항이 적절히 검토되고 추적되지 않으면 안전 제약을 실수로 위반하거나 정렬 목표에서 후퇴할 수 있습니다. When an agent rewrites its own constitution (alignment rules), it may accidentally violate safety constraints or regress on alignment objectives if changes aren't properly reviewed and tracked.

#constitution #alignment #governance +3
클릭하여 상세 보기 Click for details

RAG 및 에이전트를 위한 신뢰성 문제 지도 체크리스트 Reliability Problem Map Checklist for RAG and Agents

proposed

RAG 파이프라인과 에이전트 시스템은 진단하기 어려운 방식으로 자주 실패합니다: 누락된 컨텍스트, 불안정한 검색, 취약한 도구 계약, 데이터 업데이트 후 불안정한 동작. 팀은 이러한 실패를 프롬프트 반복이나 모델 설정 튜닝으로 먼저 해결하려 하여 인시던트가 무작위적이고 수정 비용이 높게 느껴집니다. RAG pipelines and agent systems often fail in ways that are hard to diagnose: missing context, unstable retrieval, brittle tool contracts, and flaky behavior after data updates. Teams frequently address these failures by iterating on prompts or tuning model settings first, which makes incidents feel random and expensive to fix.

#reliability #evaluation #rag +4
클릭하여 상세 보기 Click for details

모의 도구를 사용한 워크플로우 평가 Workflow Evals with Mocked Tools

emerging

단위 테스트와 린터는 개별 구성 요소를 검증하지만 에이전트 워크플로우를 엔드투엔드로 테스트하지 않습니다. 모든 기본 조각이 올바르더라도 잘 작동하지 않는 프롬프트를 만들기 쉽습니다. 프롬프트와 도구가 시스템으로 함께 작동하는지 검증해야 합니다. Unit tests and linters validate individual components but don't test agent workflows end-to-end. It's easy to create prompts that don't work well despite all underlying pieces being correct. Need to validate that prompts and tools work together as a system.

#evals #testing #ci-cd +3
클릭하여 상세 보기 Click for details

🔒 Security & Safety (10)

결정론적 보안 스캔 빌드 루프 Deterministic Security Scanning Build Loop

proposed

비결정론적 보안 접근 방식(Cursor 규칙, MCP 도구)은 근본적으로 결함이 있습니다. 보안은 절대적인 결정론을 요구하기 때문입니다—코드는 안전하거나 안전하지 않습니다. Non-deterministic security approaches (Cursor rules, MCP tools) are fundamentally flawed because security requires absolute determinism—code is either secure or not secure.

#security #deterministic #build-loop +2
클릭하여 상세 보기 Click for details

외부 자격 증명 동기화 External Credential Sync

validated-in-production

사용자가 여러 도구(CLI, 웹 포털, 로컬 환경)에서 AI API 자격 증명을 관리합니다. 자격 증명을 수동으로 재입력하면 만료된 토큰, 일관성 없는 상태, 인증 실패가 발생합니다. Users manage AI API credentials across multiple tools—CLIs, web portals, and local environments. Manually re-entering credentials causes stale tokens, inconsistent state, and authentication failures.

#credentials #oauth #token-sync +3
클릭하여 상세 보기 Click for details

자율 코드 에이전트를 위한 훅 기반 안전 가드레일 Hook-Based Safety Guard Rails for Autonomous Code Agents

validated-in-production

무인으로 실행되는 자율 코드 에이전트는 파괴적 명령(rm -rf, git reset --hard)을 실행하거나, 상태 저장 없이 컨텍스트 윈도우를 소진하거나, git push를 통해 비밀을 유출하거나, 이후 실패로 이어지는 구문 오류를 조용히 생성할 수 있습니다. 에이전트 자체는 실수를 만드는 동일한 컨텍스트 내에서 작동하기 때문에 자체 감시를 신뢰할 수 없습니다. Autonomous code agents running unattended can execute destructive commands (rm -rf, git reset --hard), exhaust their context window without saving state, leak secrets via git push, or silently produce syntax errors that cascade into later failures. The agent itself can't reliably self-police because it operates within the same context that produces the mistakes.

#hooks #guard-rails #safety +5
클릭하여 상세 보기 Click for details

RL 롤아웃당 격리된 VM Isolated VM per RL Rollout

emerging

도구 사용 에이전트를 통한 RL 훈련 중 병렬 롤아웃이 파괴적인 명령을 실행하여 교차 오염, 상태 누출, 손상된 보상 신호를 유발할 수 있습니다. During RL training with tool-using agents, parallel rollouts may run destructive commands, causing cross-contamination, state leakage, and corrupted reward signals.

#isolation #security #reinforcement-learning +2
클릭하여 상세 보기 Click for details

비수탁형 지출 통제 Non-Custodial Spending Controls

emerging

지갑 작업을 시작할 수 있는 AI 에이전트는 프롬프트 드리프트, 버그 루프 또는 손상된 프롬프트에서 안전하지 않은 트랜잭션을 발행할 수 있습니다. 지출 승인이 에이전트 프롬프트나 애플리케이션 로직 내부에서 직접 처리되면 안전 제약을 쉽게 우회할 수 있습니다. 이는 치명적 삼중 위협 모델의 구체적 사례입니다: 지갑 접근, 신뢰할 수 없는 입력, 외부 통신의 결합이 공격 경로를 만듭니다. AI agents that can initiate wallet actions may issue unsafe transactions under prompt drift, buggy loops, or compromised prompts. If spending approvals are handled directly inside agent prompts or application logic, safety constraints are easy to bypass. This is a specific instance of the lethal trifecta threat model: combining wallet access with untrusted inputs and external communication creates exploitation paths.

#wallet-controls #spend-limits #policy-enforcement +3
클릭하여 상세 보기 Click for details

PII 토큰화 PII Tokenization

established

PII가 포함된 워크플로우를 처리하는 AI 에이전트가 원시 개인 데이터가 모델 컨텍스트에 들어갈 때 프라이버시 위험을 생성합니다. AI agents processing workflows involving PII create privacy risks when raw personal data enters model context.

#privacy #pii #security +2
클릭하여 상세 보기 Click for details

샌드박스 도구 권한 부여 Sandboxed Tool Authorization

validated-in-production

도구 권한 부여는 여러 환경(개발 vs 프로덕션), 다양한 에이전트 역할(코딩 vs 메시징), 계층적 위임, 동적 포함이 필요한 플러그인 생태계에서 유연성이 필요합니다. Tool authorization needs flexibility across multiple environments (dev vs prod), different agent roles (coding vs messaging), hierarchical delegation, and plugin ecosystems requiring dynamic inclusion.

#authorization #policy #allowlist +3
클릭하여 상세 보기 Click for details

소울바운드 신원 검증 Soulbound Identity Verification

emerging

자율 에이전트가 네트워크를 통해 상호작용할 때 신원 검증과 프롬프트/운영자 드리프트 감지가 어려워집니다. 내구성 있는 신원과 불변의 변경 이력이 없으면 에이전트가 다른 에이전트를 사칭하거나 인가된 구성에서 조용히 이탈할 수 있습니다. As autonomous agents interact across networks, verifying identity and detecting prompt/operator drift becomes difficult. Without durable identity and an immutable change history, agents can impersonate others or silently diverge from authorized configurations.

#identity #verification #trust +3
클릭하여 상세 보기 Click for details

전이적 보증 체인 신뢰 Transitive Vouch-Chain Trust

emerging

자율 에이전트가 중앙 기관 없이 상호작용할 때 신뢰 결정은 이진적입니다: 에이전트를 완전히 신뢰하거나 전혀 신뢰하지 않습니다. 간접적 관계에서 부분적이고 증거 기반의 신뢰를 도출하는 메커니즘이 없습니다. 중앙 레지스트리는 단일 장애점을 생성하고, 자기 주장 신원은 검증을 제공하지 않으며, 이진 신뢰 웹(PGP 모델)은 키 유효성만 답하고 역량이나 의도는 답하지 않습니다. When autonomous agents interact without a central authority, trust decisions are binary: either you trust an agent completely or not at all. There is no mechanism to derive partial, evidence-based trust from indirect relationships. Central registries create single points of failure, self-asserted identity provides no verification, and binary web-of-trust (PGP model) only answers key validity but not competence or intent.

#trust #identity #vouch +5
클릭하여 상세 보기 Click for details

제로 트러스트 에이전트 메시 Zero-Trust Agent Mesh

established

멀티 에이전트 시스템에서 신뢰 경계는 종종 암묵적입니다. 에이전트는 검증 가능한 신원 없이 관례적으로 통신하며, 위임 체인은 감사하기 어렵습니다. 이로 인해 사칭, 권한 혼동, 검증 불가능한 작업 위임이 가능해집니다. In multi-agent systems, trust boundaries are often implicit: agents communicate by convention without verifiable identity, and delegation chains are hard to audit. This enables impersonation, privilege confusion, and unverifiable task delegation.

#zero-trust #identity #delegation +4
클릭하여 상세 보기 Click for details

🔧 Tool Use & Environment (23)

에이전트 우선 도구 및 로깅 Agent-First Tooling and Logging

established

대부분의 개발자 도구, CLI, 로그는 인간 소비를 위해 설계되어 AI 에이전트가 안정적으로 파싱하기 어려운 컬러 코딩, 다중 라인 출력을 사용합니다. Most developer tools, CLIs, and logs are designed for human consumption with color-coded, multi-line outputs that are difficult for AI agents to parse reliably.

#tool-design #logging #machine-readable +2
클릭하여 상세 보기 Click for details

프로그래밍 방식 제어를 위한 에이전트 SDK Agent SDK for Programmatic Control

emerging

대화형 터미널 또는 채팅 인터페이스는 CI/CD 파이프라인, 예약된 작업, 또는 에이전트 기능 위에 애플리케이션을 구축하는 데 적합하지 않습니다. Interactive terminal or chat interfaces are not suitable for CI/CD pipelines, scheduled jobs, or building applications on top of agent capabilities.

#sdk #automation #ci/cd +3
클릭하여 상세 보기 Click for details

벡터 임베딩 대신 에이전틱 검색 Agentic Search Over Vector Embeddings

best-practice

코드 검색을 위한 벡터 임베딩은 지속적인 재인덱싱, 로컬 변경 처리, 추가 보안 표면, 인프라 오버헤드가 필요합니다. 전통적인 RAG는 필요하지 않을 수 있는 복잡성을 추가합니다. Vector embeddings for code search require continuous re-indexing, handling local changes, additional security surface area, and infrastructure overhead. Traditional RAG adds complexity that may not be necessary.

#search #vector-embeddings #bash +3
클릭하여 상세 보기 Click for details

AI 웹 검색 에이전트 루프 AI Web Search Agent Loop

emerging

LLM은 훈련 컷오프가 있으며 언제 검색할지 결정하고, 대화 컨텍스트를 효과적인 쿼리로 번역하고, 다양한 결과를 찾고, 발견에 따라 반복하고, 소스를 적절히 인용해야 합니다. LLMs have training cutoffs and need to decide when to search, translate conversational context into effective queries, find diverse results, iterate based on findings, and cite sources properly.

#web-search #serp-api #citations +3
클릭하여 상세 보기 Click for details

CLI 우선 스킬 설계 CLI-First Skill Design

proposed

에이전트 사용만을 위해 설계된 스킬은 테스트, 디버그, 빠른 반복이 어렵습니다. Skills designed only for agent use are hard to test, debug, and iterate on quickly.

#cli #skills #testing +2
클릭하여 상세 보기 Click for details

CLI 네이티브 에이전트 오케스트레이션 CLI-Native Agent Orchestration

proposed

웹 채팅 UI는 반복 실행, 로컬 파일 편집, CI 파이프라인 내 스크립팅에 어색합니다. Web chat UIs are awkward for repeat runs, local file edits, or scripting inside CI pipelines.

#cli #automation #local-dev +1
클릭하여 상세 보기 Click for details

코드 모드 MCP 도구 인터페이스 패턴 Code Mode MCP Tool Interface Pattern

established

전통적인 MCP는 비효율적인 토큰 중심 왕복을 강제합니다: 모든 중간 JSON 응답이 모델의 컨텍스트를 통해 흐릅니다. 100개의 이메일의 경우, 작업이 시작되기 전에 100k+ 토큰이 필요합니다. Traditional MCP forces inefficient token-heavy round-trips: every intermediate JSON response must flow through the model's context. For 100 emails, this means 100k+ tokens before any work begins.

#tool-interface #code-generation #sandboxing +4
클릭하여 상세 보기 Click for details

API 대신 코드 패턴 Code-Over-API Pattern

established

에이전트가 직접 API를 호출하면 모든 중간 데이터가 컨텍스트 윈도우를 통해 흐릅니다. 10,000개의 스프레드시트 행을 처리하면 데이터 이동만으로 150,000+ 토큰을 소비할 수 있습니다. When agents make direct API calls, all intermediate data flows through context window. Processing 10,000 spreadsheet rows can consume 150,000+ tokens just moving data.

#token-optimization #code-execution #data-processing +1
클릭하여 상세 보기 Click for details

코드 후 실행 패턴 Code-Then-Execute Pattern

emerging

계획 목록은 불투명합니다; 보안을 위해 전체 데이터 흐름 분석과 오염 추적이 필요합니다. Plan lists are opaque; we want full data-flow analysis and taint tracking for security.

#dsl #sandbox #program-synthesis +2
클릭하여 상세 보기 Click for details

이중 사용 도구 설계 Dual-Use Tool Design

best-practice

인간과 에이전트를 위한 별도 도구를 유지하면 오버헤드와 일관되지 않은 동작이 발생합니다. Maintaining separate tools for humans and agents creates overhead and inconsistent behavior.

#tools #ux #slash-commands +1
클릭하여 상세 보기 Click for details

송신 잠금 (데이터 유출 채널 차단) Egress Lockdown (No-Exfiltration Channel)

established

개인 데이터 접근과 신뢰할 수 없는 입력이 있더라도, 에이전트가 훔친 데이터를 전송할 방법이 없으면 공격이 실패합니다. 많은 실제 수정이 단순히 아웃바운드 채널을 제거했습니다. Even with private-data access and untrusted inputs, attacks fail if the agent has no way to transmit stolen data. Many real-world fixes simply removed outbound channels.

#network-sandbox #exfiltration #outbound-controls +1
클릭하여 상세 보기 Click for details

지능형 Bash 도구 실행 Intelligent Bash Tool Execution

validated-in-production

에이전트의 안전하고 신뢰할 수 있는 명령 실행은 복잡합니다: TTY 필수 CLI를 위한 PTY 요구사항, 신호 처리의 플랫폼 차이, 승인 워크플로우가 필요한 보안 문제, 백그라운드 프로세스 관리 필요성이 있습니다. Secure, reliable command execution from agents is complex: PTY requirements for TTY-required CLIs, platform differences for signal handling, security concerns requiring approval workflows, and background process management needs.

#bash #shell #pty +4
클릭하여 상세 보기 Click for details

LLM 친화적 API 설계 LLM-Friendly API Design

emerging

인간 소비만을 위해 설계된 API는 광범위한 미세조정이나 정교한 프롬프팅 없이는 LLM이 올바르게 사용하기에 모호하거나 지나치게 복잡할 수 있습니다. APIs designed solely for human consumption might be ambiguous or overly complex for an LLM to use correctly without extensive fine-tuning or elaborate prompting.

#api-design #llm-interaction #tool-use +2
클릭하여 상세 보기 Click for details

다중 플랫폼 커뮤니케이션 집계 Multi-Platform Communication Aggregation

emerging

사용자는 여러 플랫폼(이메일, Slack, iMessage)에서 소통하며 어디에든 존재할 수 있는 정보를 검색해야 합니다. 각각을 수동으로 검색하는 것은 느리고 오류가 발생하기 쉽습니다. Users communicate across multiple platforms (email, Slack, iMessage) and need to search for information that might exist in any of them. Searching each manually is slow and error-prone.

#search #aggregation #parallel +2
클릭하여 상세 보기 Click for details

다중 플랫폼 웹훅 트리거 Multi-Platform Webhook Triggers

emerging

내부 에이전트는 워크플로우가 시작될 때만 가치를 제공합니다. 트리거 메커니즘 구축이 에이전트 채택의 핵심입니다. 쉬운 트리거 없이는 직원들이 워크플로우를 효과적으로 자동화할 수 없습니다. An internal agent only provides value when its workflows are initiated. Building out trigger mechanisms is core to agent adoption. Without easy triggers, employees can't effectively automate workflows.

#webhooks #triggers #integrations +4
클릭하여 상세 보기 Click for details

프롬프트 도구 선택을 통한 패치 조정 Patch Steering via Prompted Tool Selection

best-practice

여러 패칭 도구가 있는 에이전트가 명시적 안내 없이 차선의 도구를 선택하여 일관되지 않은 결과를 초래할 수 있습니다. Agents with multiple patching tools may choose suboptimal ones without explicit guidance, leading to inconsistent results.

#patching #prompt-steering #tool-selection +1
클릭하여 상세 보기 Click for details

점진적 도구 발견 Progressive Tool Discovery

established

모든 도구를 미리 로드하면 사용하지 않는 기능에 컨텍스트가 낭비되고 초기화가 느려집니다. Loading all tools upfront wastes context on unused capabilities and slows initialization.

#mcp #tool-discovery #context-optimization +1
클릭하여 상세 보기 Click for details

셸 명령 컨텍스트화 Shell Command Contextualization

established

셸 명령 출력을 프롬프트에 수동으로 복사하는 것은 지루하고 오류가 발생하기 쉽습니다. Manually copying shell command output into prompts is tedious and error-prone.

#shell-integration #context-management #local-execution +1
클릭하여 상세 보기 Click for details

에이전트를 위한 정적 서비스 매니페스트 Static Service Manifest for Agents

emerging

에이전트가 API를 사용하기 전에 API가 무엇을 제공하는지 알아야 합니다. 현재 에이전트는 하드코딩된 도구 목록, 런타임 탐색 또는 사람이 작성한 문서를 통해 서비스를 학습합니다. 이 중 어느 것도 에이전트가 많은 서비스를 노출하는 익숙하지 않은 플랫폼과 상호작용할 때 잘 확장되지 않습니다. 에이전트는 필요하지 않을 수 있는 전체 카탈로그에 컨텍스트 윈도우를 낭비하거나, 인간 개입 없이 플랫폼에 대해 학습할 방법이 없습니다. Before an agent can use an API, it needs to know what the API offers. Today, agents learn about services through hardcoded tool lists, runtime exploration, or human-written documentation. None of these scale well when agents need to interact with unfamiliar platforms exposing many services. The agent either wastes context window on a full catalog it may not need, or has no way to learn about the platform without human intervention.

#service-discovery #agent-infrastructure #llms-txt +4
클릭하여 상세 보기 Click for details

서브에이전트 컴파일 검사기 Subagent Compilation Checker

emerging

여러 컴포넌트가 있는 대규모 코딩 작업은 메인 에이전트가 모든 컴파일을 처리할 때 컨텍스트 길이를 폭발시킵니다. 프롬프트의 빌드 로그는 비실용적이고 추론을 느리게 합니다. Large coding tasks with multiple components blow up context length when main agent handles all compilation. Build logs in prompts are impractical and slow down inference.

#subagent #compilation #modularity +1
클릭하여 상세 보기 Click for details

프롬프팅을 통한 도구 사용 조종 Tool Use Steering via Prompting

best-practice

여러 도구를 가진 에이전트는 언제, 왜, 어떻게 사용해야 하는지에 대한 명확한 지침이 필요합니다. 도구가 있다고 해서 특히 사용자 정의 또는 팀 특화 도구에 대해 적절한 사용이 보장되지 않습니다. Agents with multiple tools need clear guidance on when, why, and how to use them. Simply having tools available doesn't guarantee appropriate use, especially for custom or team-specific tools.

#tool-use #prompting #agent-guidance +2
클릭하여 상세 보기 Click for details

가상 머신 운영자 에이전트 Virtual Machine Operator Agent

established

AI 에이전트는 단순한 코드 생성을 넘어 복잡한 작업을 수행해야 합니다. 전체 컴퓨터 환경과 상호작용: 코드 실행, 리소스 관리, 소프트웨어 설치, 애플리케이션 운영 능력이 필요합니다. AI agents need to perform complex tasks beyond simple code generation. They require ability to interact with full computer environment: execute code, manage resources, install software, operate applications.

#computer-operation #virtual-machine #execution-environment +1
클릭하여 상세 보기 Click for details

비주얼 AI 멀티모달 통합 Visual AI Multimodal Integration

emerging

많은 실제 작업은 텍스트와 함께 시각 정보가 필요합니다. 텍스트 전용 에이전트는 이미지, 비디오, 다이어그램, 시각적 인터페이스의 중요 정보를 놓칩니다. Many real-world tasks require visual information alongside text. Text-only agents miss critical information in images, videos, diagrams, and visual interfaces.

#multimodal #vision #video +2
클릭하여 상세 보기 Click for details

👥 UX & Collaboration (16)

코드 리뷰를 위한 추상화된 표현 Abstracted Code Representation for Review

proposed

대량의 AI 생성 코드를 한 줄씩 검토하는 것은 지루하고, 오류가 발생하기 쉬우며, 비효율적입니다. 인간 검토자는 종종 미세한 구문 세부사항보다 높은 수준의 의도와 논리적 정확성을 검증하는 데 더 관심이 있습니다. Reviewing large volumes of AI-generated code line-by-line is tedious, error-prone, and inefficient. Human reviewers are often more interested in verifying high-level intent and logical correctness than minute syntactic details.

#code-review #verification #abstraction +3
클릭하여 상세 보기 Click for details

에이전트 지원 스캐폴딩 Agent-Assisted Scaffolding

validated-in-production

새 기능, 모듈 또는 코드베이스를 시작하면 상당한 보일러플레이트나 기초 코드 작성이 필요합니다. 이는 시간이 많이 걸리고, 반복적이며, 개발자를 구현해야 하는 핵심 로직에서 멀어지게 합니다. Starting a new feature, module, or codebase involves writing significant boilerplate or foundational code. This is time-consuming, repetitive, and pulls developers away from the core logic they need to implement.

#code-generation #bootstrapping #scaffolding +3
클릭하여 상세 보기 Click for details

에이전트 친화적 워크플로우 설계 Agent-Friendly Workflow Design

best-practice

AI 에이전트에게 단순히 작업을 제공하는 것만으로는 충분하지 않은 경우가 많습니다. 워크플로우가 너무 경직되어 있거나 인간이 에이전트의 기술적 결정을 세세하게 관리하면 에이전트가 어려움을 겪거나 최적이 아닌 결과를 생성할 수 있습니다. 에이전트는 적절한 자유도가 있을 때 가장 잘 수행합니다. Simply providing an AI agent with a task is often not enough. If workflows are too rigid, or if humans micromanage the agent's technical decisions, the agent may struggle or produce suboptimal results. Agents perform best with appropriate freedom.

#human-agent-collaboration #workflow-design #agent-autonomy +2
클릭하여 상세 보기 Click for details

에이전트 리소스 펀딩을 위한 마일스톤 에스크로 Milestone Escrow for Agent Resource Funding

emerging

자율 에이전트 팀은 여러 단계에 걸쳐 지속적인 리소스(컴퓨팅, API 비용, 도구)가 필요합니다. 가드레일을 적용하는 펀딩 모델이 없으면 과도한 인간 개입이 필요하거나 예산 초과 위험이 발생합니다. Autonomous agent teams can need ongoing resources (compute, API spend, tools) over many steps. Without a funding model that enforces guardrails, they either require heavy human intervention or risk budget runaway.

#resource-funding #escrow #milestones +2
클릭하여 상세 보기 Click for details

AI 가속 학습 및 스킬 개발 AI-Accelerated Learning and Skill Development

validated-in-production

깨끗한 코드에 대한 '취향'을 포함한 강력한 소프트웨어 엔지니어링 기술을 개발하려면 전통적으로 광범위한 경험과 멘토링이 필요합니다. 이는 특히 수년에 걸쳐 시행착오를 통해 배우는 주니어 개발자에게 느린 과정입니다. Developing strong software engineering skills, including 'taste' for clean code, traditionally requires extensive experience and mentorship. This is a slow process, especially for junior developers who learn through trial-and-error over years.

#developer-productivity #learning #skill-acquisition +4
클릭하여 상세 보기 Click for details

사고 사슬 모니터링 및 중단 Chain-of-Thought Monitoring & Interruption

emerging

AI 에이전트는 출력을 생성하기 전에 오랜 기간 동안 잘못된 추론 경로를 추구할 수 있습니다. 개발자가 접근 방식이 잘못되었음을 깨달을 때쯤이면 상당한 시간과 토큰이 낭비됩니다. 전통적인 '실행 후 잊기' 방식은 조기 수정 기회를 제공하지 않습니다. AI agents can pursue misguided reasoning paths for extended periods before producing outputs. By the time developers realize the approach is wrong, significant time and tokens have been wasted. Traditional 'fire and forget' execution provides no opportunity for early correction.

#monitoring #intervention #debugging +3
클릭하여 상세 보기 Click for details

에이전트를 위한 코드베이스 최적화 Codebase Optimization for Agents

emerging

AI 에이전트를 코드베이스에 도입할 때 인간 개발자 경험(DX)을 보존하려는 경향이 있습니다. 이는 코드베이스가 인간에게 최적화된 상태로 남아 에이전트 효과를 제한합니다. 좋은 모델도 명확한 피드백 루프 없이는 어려움을 겪습니다. 에이전트는 능력 한계가 아니라 코드베이스가 에이전트에 '용접'되지 않아서 실패합니다. When introducing AI agents to a codebase, there's a tendency to preserve human developer experience (DX). This limits agent effectiveness because the codebase remains optimized for humans. Even good models struggle without clear feedback loops—agents fail not because of capability limits but because the codebase isn't 'welded' to the agent.

#agent-first #human-dx #optimization +4
클릭하여 상세 보기 Click for details

에이전트를 통한 도구화 민주화 Democratization of Tooling via Agents

emerging

비소프트웨어 엔지니어링 역할(영업, 마케팅, 운영)의 많은 개인은 워크플로우에 맞춤화된 소프트웨어 도구의 혜택을 받을 수 있지만, 이를 구축할 전통적인 프로그래밍 기술이 부족합니다. Many individuals in non-software engineering roles (sales, marketing, operations) could benefit from custom software tools tailored to their workflows, but lack traditional programming skills to build them.

#no-code #low-code #citizen-developer +3
클릭하여 상세 보기 Click for details

개발 도구 가정 재설정 Dev Tooling Assumptions Reset

emerging

전통적인 개발 도구는 더 이상 유효하지 않은 가정 위에 구축되어 있습니다: 인간이 노력과 전문성으로 코드를 작성하고, 변경 사항은 희소하고 가치 있으며, 선형 워크플로우가 합리적이라는 가정입니다. 에이전트가 코드의 90%를 작성할 때, 이러한 도구는 병목과 마찰을 만듭니다. Traditional development tools are built on assumptions that no longer hold: that humans write code with effort and expertise, that changes are scarce and valuable, that linear workflows make sense. When agents write 90% of code, these tools create bottlenecks and friction.

#dev-tools #assumptions #tickets +4
클릭하여 상세 보기 Click for details

휴먼 인 더 루프 승인 프레임워크 Human-in-the-Loop Approval Framework

validated-in-production

완전 자율 에이전트가 인간의 감독 없이 위험한 행동을 취하여 비용이 많이 드는 실수를 초래할 수 있습니다. Fully autonomous agents may take risky actions without human oversight, leading to costly mistakes.

#human-oversight #safety #approvals +1
클릭하여 상세 보기 Click for details

잠재 수요 제품 발견 Latent Demand Product Discovery

best-practice

에이전트 제품을 구축할 때 상당한 엔지니어링 노력을 투자하기 전에 어떤 기능이 실제 제품-시장 적합성을 가질지 알기 어렵습니다. 전통적인 기능 개발은 사용자가 실제로 도구를 어떻게 적응시킬지 드러내지 않을 수 있는 사용자 인터뷰에 의존합니다. When building agent products, it's difficult to know which features will have real product-market fit before investing significant engineering effort. Traditional feature development relies on user interviews which may not reveal how users would actually adapt tools.

#product-discovery #extensibility #hackable-products +2
클릭하여 상세 보기 Click for details

능동적 트리거 어휘 Proactive Trigger Vocabulary

emerging

많은 스킬을 가진 에이전트가 라우팅 문제에 직면합니다. 사용자는 어떤 문구가 어떤 기능을 활성화하는지 모릅니다. Agents with many skills face routing problems; users don't know what phrases activate which capabilities.

#ux #triggers #intent-detection +1
클릭하여 상세 보기 Click for details

원활한 백그라운드-포그라운드 핸드오프 Seamless Background-to-Foreground Handoff

emerging

백그라운드 에이전트가 90% 정확도를 달성하지만 나머지 10%는 인간의 손길이 필요합니다. 어색한 핸드오프가 자동화 이점을 무효화합니다. Background agents achieve 90% correctness but the remaining 10% requires human finesse; clunky handoffs negate automation benefits.

#background-agent #human-in-the-loop #task-handoff +1
클릭하여 상세 보기 Click for details

제어 스펙트럼 / 혼합 주도권 Spectrum of Control / Blended Initiative

validated-in-production

획일적인 에이전트 자율성은 다양한 사용자 요구나 다양한 작업 복잡성을 충족시키지 못합니다. One-size-fits-all agent autonomy doesn't cater to diverse user needs or varying task complexity.

#human-agent-collaboration #autonomy-spectrum #interactive-control
클릭하여 상세 보기 Click for details

팀 공유 에이전트 설정 코드화 Team-Shared Agent Configuration as Code

best-practice

각 엔지니어가 AI 에이전트를 독립적으로 구성하면: 팀 전체의 일관성 없는 동작, 안전한 명령에 대한 권한 마찰, 동일한 문제 해결의 중복 노력, 지식 사일로, 온보딩 오버헤드, 보안 격차가 발생합니다. When each engineer configures their AI agent independently: inconsistent behavior across team, permission friction for safe commands, duplicated effort solving same problems, knowledge silos, onboarding overhead, and security gaps.

#configuration #version-control #team-collaboration +3
클릭하여 상세 보기 Click for details

상세 추론 투명성 Verbose Reasoning Transparency

best-practice

블랙박스 에이전트 출력은 추론에 대한 가시성 없이 디버깅, 검증, 신뢰하기 어렵습니다. Black-box agent outputs are hard to debug, verify, and trust without visibility into reasoning.

#explainability #debugging #transparency +1
클릭하여 상세 보기 Click for details