크래프톤 정글 실습 날짜까지 시간이 많이 없고, 자료들 내용이(프롬프트 엔지니어링, LLM 원리와 달리) 지속적인 최신화가 필요한 내용들임. 빠르게 1회독 -> AI요약 -> 정리 순으로 진행하기로 함.
Claude Code는 SubAgent를 자동으로 판단하여 호출한다 (각 에이전트의 YAML frontmatter 내 description 필드를 기반으로 매칭). 명시적으로 지정하여 호출할 수도 있다.
Claude Code는 Built-in SubAgent(Explore, Plan, General-purpose)를 내장하고 있다. 커스텀 SubAgent는 글로벌(~/.claude/agents/) 또는 프로젝트(.claude/agents/) 단위로 설정 가능하며, 플러그인을 통해 다른 사용자와 공유할 수도 있다.
SubAgent는 독립된 컨텍스트 윈도우에서 동작하므로 메인 에이전트의 컨텍스트 오염 없이 작업을 수행할 수 있고, 여러 SubAgent를 병렬·비동기로 호출하여 효율적인 처리가 가능하다. 단, SubAgent가 다른 SubAgent를 생성하는 것은 불가하다(무한 중첩 방지).
개발 진화: 1인 개발 → 팀 리드 → AI 보조 팀 리드 → 1인이 다수 AI 에이전트 관리
작업 책임: 인간은 요구사항·설계 초기만 담당. 구현·테스트·CI·코드 리뷰·문서화는 에이전트.
에이전트 지시 4가지 기법:
- Behavior files (Claude.md 등) - 행동 규칙 앵커링
- Hooks - 이벤트 트리거 스크립트 (PreToolUse, PostToolUse 등)
- Commands - 자주 쓰는 프롬프트 파일화 (테스트, 리뷰, ship-it)
- Subagents - 런타임 위임. 역할별 페르소나·컨텍스트 분리
Best Practices: 테스트+CI/CD 안전장치, 에이전트 diff 라벨링, 모델 분리(Opus=계획, Sonnet=실행), 정기 커밋
IDE 진화: 펀치카드 → ed → Smalltalk → VB → Eclipse → Copilot → Devin → Claude Code. 프로그래밍 언어·IDE 생산성 모두 AI에 의해 지수적 증가 중.
설계 철학: 터미널 네이티브 / 무한 해킹 가능 / 전체 SDLC 커버
5가지 인터페이스: Terminal, IDE, Web & iOS, GitHub App, SDK
4가지 사용 패턴:
- 코드베이스 Q&A - git 히스토리·이슈·PR 기반 질의
- MCP 통합 - 외부 도구 서버 연결
- 워크플로우 - explore→plan→code / tests→code→iterate / code→screenshot→iterate
- 프로토타이핑 - 자연어 반복으로 UI 설계
Lessons: 6개월 후 모델 기준으로 빌드 / 진화 준비 / 모델을 파트너로 / The Bitter Lesson (도메인 지식을 직접 제공하는 것보다 대규모 범용 연산이 더 유리하다는 딥러닝 관련 주장)
- 코딩 에이전트의 성능은 컨텍스트 엔지니어링을 통해 높일 수 있다.
- AI 네이티브 개발 문화는 처음부터 인간-에이전트 협업 중심으로 설계해야 생산성 극대화가 가능하다.
- 에이전트 오케스트레이션은 구조화된 명세(CLAUDE.md, 슬래시 커맨드 등)를 통해 에이전트의 행동을 제어하는 방향으로 진화하고 있다. (강의 자료는 2025년 7월쯤까지지만, 최근의 Skill.md, OpenClaw를 보면 여전히 그렇다.)
-
Peeking Under the Hood of Claude Code
- LiteLLM 프록시로 Claude Code의 실제 API 호출을 관찰·분석한 리버스 엔지니어링 글.
- 핵심 발견:
- 세션 시작 전 대화 요약·토픽 판별 프롬프트를 선행 호출(Context Front-loading).
<system-reminder>태그를 시스템/유저/도구 결과 전반에 반복 삽입하여 드리프트 방지.- Bash 권한 승인과 명령 주입 탐지가 코딩이 아닌 별도 LLM 호출로 동작. 에이전트가 실행하려는 셸 명령을 서브 프롬프트에 넘기면, LLM이 커맨드를 사용자 허용 목록과 대조하고, 인젝션 위험을 감지하면
command_injection_detected를 반환해 사용자에게 수동 확인을 요청. - 서브에이전트(Task 도구)는 메인과 동일 프롬프트에서 TodoWrite만 제외하여 단순 태스크에 최적화.
- 결론: Claude Code의 "마법"은 모델 차이가 아니라 거대한 프롬프트 + 체계적 컨텍스트 엔지니어링의 조합.
- (3주차 Context Distraction/Confusion 문제를 Anthropic이 반복 리마인더 삽입으로 자체 해결하는 구체적 사례.)
-
Claude Code Docs - How Anthropic Teams Use Claude Code (PDF)
- 공식 문서: 터미널 네이티브 설치·사용법, IDE/CI 통합, MCP 설정 등.
- PDF: Anthropic 내부 10개 팀 실사용 사례.
- 공통 패턴
- CLAUDE.md 상세 문서화가 성능 핵심
- 주변부는 비동기(auto-accept), 핵심 로직은 동기 감독
- 비개발 직군(법무·디자인·마케팅)이 프로토타입·자동화 워크플로를 독립 구축
- 체크포인트 기반 "슬롯머신" 워크플로(돌려보고 수용 또는 롤백)
- 한계: 자사 홍보 문서.
- 공통 패턴
- Good Context Leads to Good Code
- 좋은 코드는 좋은 컨텍스트의 결과. 코드는 중간 산물에 가까움.
- AI 네이티브 문화 설계 후 생산성 ~2.5배(주당 10.6 PR).
- 핵심: 모노레포 + 자연어 문서 중심, 탑다운 워크플로, 전면적 에이전트 활용(감독 필수), MCP/CLI 연동, 인간+다중 LLM 앙상블.
- 한계: 빌드 단계 수치이므로 유지보수 포함 시 하락 가능. 에이전트가 dev DB를 날린 사례도 존재. (운영 단계에서의 생산성 감소는 필수적일듯 이게 얼마나 될지가 더 중요하지 않나 싶은데)
- (메모: 3주차 "spec이 source of truth" 주장의 실전 구현. ACE-FCA의 "리서치→계획→실행" 워크플로와 구조적으로 동일.)
-
Awesome Claude Agents (⭐ 3.7k)
- Claude Code 기반 24개 서브에이전트 오케스트레이션 오픈소스. 코어/프레임워크 전문가/오케스트레이터 등
- 프로젝트 스택 자동 감지 →
CLAUDE.md에 태스크-에이전트 매핑 생성 → 오케스트레이터 실행. - 한계: 실험적, 토큰 사용량 높음(10–50k/워크플로), 벤치마크 없음.
-
SuperClaude Framework (⭐ 20.7k)
- Claude Code를 구조화된 개발 플랫폼으로 확장하는 메타 프레임워크.
- 30개 슬래시 커맨드, 16개 에이전트, 7개 모드, MCP 통합.
- Deep Research 지원, MCP 사용 시 속도↑·토큰↓.
- 비공식 커뮤니티 프로젝트, 일부 기능(플러그인) 미완성.