Claude MCP 서브 에이전트 - AI 코딩의 다음 진화

채널 아이콘
Cole Medin 구독자 78,300명

요약

영상은 현재 AI IDE들이 보여주는 엄청난 생산성에도 불구하고 코드 할루시네이션 등 여러 한계점이 존재함을 지적하며, 이를 해결하기 위한 차세대 솔루션으로서 Claude의 mCP 프로토콜과 서브 에이전트를 소개한다. 특히, Archon이라는 AI 메타 에이전트를 예로 들어, 이 에이전트가 어떻게 다른 AI 에이전트를 생성하고, 전문화된 도구와 연동하여 코드를 체계적으로 구축할 수 있는지를 상세히 시연한다. 데모에서는 Thread ID를 통한 대화 상태 관리와, Wind Surf, Streamlit 등 다양한 AI 코딩 환경에서의 통합 과정을 보여주며, 향후 발전 가능성과 커뮤니티 기반 확장을 강조한다. 또한, Fish Audio의 음성 클로닝 기술을 스폰서로 소개하며, AI 음성 솔루션과의 연동을 통해 전반적인 개발 경험을 한층 업그레이드할 수 있음을 설명한다.

주요 키워드

AI IDE 코드 할루시네이션 mCP Archon 서브 에이전트 Thread ID pantic AI Lang graph Wind Surf Fish Audio

하이라이트

  • 🚀 AI IDE의 활용과 한계: AI 코딩 도구들이 비약적인 생산성을 제공하지만, 코드 할루시네이션과 같은 문제점을 내포하고 있음이 강조됨.
  • 🌟 서브 에이전트의 개념: 단순한 일반 AI 코더가 아닌, 특정 도구 및 프레임워크에 최적화된 서브 에이전트를 통해 문제 해결이 가능하다는 점을 설명함.
  • ⚡️ Archon의 역할: Archon은 다른 AI 에이전트를 생성하는 메타 에이전트로, mCP 프로토콜을 활용해 구조화되고 안정적인 코드 생성을 지원함.
  • 📌 Thread ID 활용: 대화의 연속성과 상태 관리를 위해 Thread ID를 생성, 유지함으로써 여러 차례의 호출 후에도 일관된 결과를 도출하도록 함.
  • 🚀 통합 데모와 실시간 피드백: Wind Surf와 Streamlit을 통한 실시간 시연 및 인간-에이전트 피드백 루프를 보여줌으로써, 기술 발전 가능성을 강조함.
  • 🌟 Fish Audio 스폰서: 음성 클로닝 및 AI 음성 솔루션을 소개, 개발자와 콘텐츠 제작자 모두에게 혁신적인 오디오 제작 방법을 제공함.

용어 설명

mCP (메시지 기반 커맨드 프로토콜)

Claude가 개발한, 대형 언어 모델이 외부 도구와 API를 표준화하여 통합적으로 사용할 수 있도록 하는 프로토콜.

Archon

다른 AI 에이전트를 생성하는 AI 메타 에이전트로, pantic AI와 Lang graph를 활용하여 전문화된 서브 에이전트를 구축함.

서브 에이전트

일반 AI 코딩 도구에서 특정 프레임워크나 도구에 특화된 작업을 수행하기 위해 별도로 제작된 보조 에이전트.

Thread ID

대화 흐름과 상태 관리를 위해 생성되는 고유 식별자로, 여러 API 호출 간의 연속성을 유지하는 역할을 함.

Wind Surf / Cursor

현재 널리 사용되고 있는 AI 코딩 IDE로, 일반적인 코딩 작업과 문서화 기능 등을 제공함.

[00:00:00] AI IDE와 코드 할루시네이션 문제

영상 초반부에서는 Wind Surf, Cursor 같은 AI IDE의 사용과 이들이 보여주는 높은 생산성 및 동시에 내포하고 있는 코드 할루시네이션 문제를 짚어봅니다.

AI IDE의 현재 상황과 한계점을 설명합니다. Windsurf나 Cursor 같은 도구들이 강력하지만, 문서 검색이나 Claude MCP 지원에도 불구하고 코드 환각 같은 문제가 있다고 지적합니다.
[00:00:29] 서브 에이전트와 Archon 소개

일반적인 AI 코딩 도구의 한계를 극복하기 위해, 보다 전문화된 서브 에이전트 개념과 Claude의 mCP 프로토콜, 그리고 이를 구현하는 Archon의 개념을 소개합니다.

AI 코딩 어시스턴트의 근본적인 문제점을 지적하고, 단순한 개선이 아닌 패러다임의 전환이 필요함을 강조합니다.
특화된 서브에이전트와 Claude MCP를 활용한 새로운 해결책을 제시합니다. Archon이라는 AI 에이전트를 예시로 들어 설명합니다.
현재 AI 코딩 어시스턴트의 일반성 문제를 지적하고, 특정 도구나 프레임워크에 특화된 전문 에이전트의 필요성을 설명합니다.
MCP 도구를 통한 특화된 에이전트 구현 가능성을 설명하고, 이를 기존 AI 코딩 어시스턴트에 통합하는 방안을 제시합니다.
[00:02:10] mCP 서버와 데모 시연

Archon을 이용하여 API 엔드포인트, Thread ID 생성, 및 대화 상태 관리를 어떻게 수행하는지 구체적인 코드 데모와 함께 설명합니다.

Archon과 Windsurf를 통한 AI 에이전트 구축 데모를 시작하면서, 이전에 Streamlit 인터페이스에서 실행되던 Archon이 어떻게 발전했는지 소개합니다.
Brave 웹 검색이 가능한 AI 에이전트 구축을 위한 첫 프롬프트를 입력하고, MCP 서버와 도구들을 확인합니다.
스레드 ID 생성부터 시작하여 Archon API를 통해 에이전트 생성 프로세스가 진행됩니다. Reasoner 모델(O3-mini)과 코더(GPT-4)가 협력하여 작업을 수행합니다.
최종적으로 agent.py, requirements.txt, tools 파일, env.example 등 필요한 모든 파일들이 자동으로 생성됩니다.
Windsurf가 Archon을 판틱 AI 에이전트 구축을 위한 특화된 서브에이전트로 활용하는 방식을 설명합니다.
생성된 코드의 구조와 구성요소들이 에이전트, 요구사항, Brave 검색 도구, API 키 등이 잘 구성되어 있음을 보여줍니다.
Archon이 초기 단계임에도 다양한 특화된 서브에이전트를 만들 수 있으며, Windsurf나 Cursor가 필요할 때 이를 호출할 수 있는 장점을 설명합니다.
새로운 기술 혁신에 따른 질문들을 다루기 시작하며, 특히 기존 AI 코더의 문서 기능 대신 Archon을 사용하는 이유에 대해 설명합니다.
Archon을 선택한 주요 이유로 일관된 코드 출력과 에이전트 흐름의 구조적 장점을 설명하며, Windsurf와 비교하여 그 차이점을 설명합니다.
Archon의 장점에 대해 설명하면서, 현재는 초기 단계지만 자체 피드백 루프와 문제 분할 기능을 통해 더 견고한 코드를 생성할 수 있다고 강조합니다.
MCP 서버가 일반적으로 상태를 유지하지 않는 것과 달리, Archon은 Thread ID를 사용하여 대화 기록을 유지하는 하위 에이전트 도구로서의 특징을 설명합니다.
Thread ID 시스템이 LLM에 의존적이지만 100% 안정적으로 작동하며, 이를 통해 연속적인 에이전트 개선이 가능함을 설명합니다.
Fish Audio를 소개하며, 이 도구가 제공하는 고품질 음성 복제 및 변환 기능에 대해 설명을 시작합니다.
[00:10:10] Fish Audio 스폰서 소개

Fish Audio의 혁신적인 음성 클로닝 솔루션을 소개하며, AI 음성 제작 기술이 개발 환경에 제공하는 부가 가치를 설명합니다.

Fish Audio 홈페이지에서 커스텀 보이스를 만드는 방법을 설명합니다. 사용자 이미지, 이름, 설명을 추가하고 30초 정도의 음성 샘플을 녹음하면 AI가 목소리를 복제할 수 있습니다.
샘플 테스트로 'Archon이 최고의 AI 에이전트 빌더'라는 문구를 사용해 음성을 생성해봅니다. 발음 개선을 위해 철자를 수정할 수 있고, API를 통한 프로그래밍 방식의 사용도 가능합니다.
Fish Audio는 유튜브 보이스오버, 음성 에이전트, 다국어 지원 등 다양한 기능을 제공하며, Eleven Labs보다 50% 저렴하고 2배 빠른 처리 속도를 자랑합니다.
MCP와 Archon에 대한 설명을 시작합니다. MCP는 Claude가 개발한 프로토콜로, 대규모 언어 모델과 다양한 도구들을 표준화된 방식으로 연동할 수 있게 해줍니다.
MCP 서버는 GitHub, Google Drive, Discord 등 다양한 서비스의 API를 LLM에 동적으로 제공하여, Windsurf나 Claude Desktop과 같은 플랫폼에서 활용할 수 있습니다.
LLM이 GitHub 저장소에서 사용자를 대신해 작업할 수 있게 되었으며, 다양한 서버(Brave 검색, Google Drive, SQL 데이터베이스 등)를 빠르게 구축하고 LLM에 즉시 접근 권한을 부여할 수 있게 되었습니다.
Archon은 Pantic AI와 LangGraph를 사용하여 다른 에이전트들을 만드는 AI 메타 에이전트로, 최근 개발이 시작되어 강력한 서브에이전트로 발전시키는 것이 목표입니다.
LangGraph 그래프를 통해 Archon의 전체 워크플로우가 정의되며, Reasoner가 범위와 추론을 정의하고 코더 에이전트가 실제 코드를 생성하는 구조로 되어 있습니다.
Archon MCP 서버는 FastAPI와 MCP 파이썬 SDK를 사용하여 구현되었으며, 스레드 ID 생성과 Archon 호출이라는 두 가지 주요 도구를 포함하고 있습니다.
Archon API 엔드포인트 구현에 대해 설명합니다. 버전 3의 새로운 기능으로 Fast API를 통해 Archon과 상호작용하며, 이전 Streamlit 방식과 유사하게 작동합니다.
Archon 그래프는 이전과 동일하게 유지되며, Fast API 엔드포인트로 래핑하여 MCP 서버에서 호출할 수 있습니다.
Archon은 MCP 서버뿐만 아니라 Streamlit이나 다른 프론트엔드에서도 유연하게 사용할 수 있도록 설계되었습니다.
README에서 MCP 서버 설정 없이도 Archon을 실행하는 방법과 설정 방법을 자세히 설명하고 있습니다.
함수 정의 상단의 독스트링은 LLM에게 도구 사용 방법을 알려주는 중요한 역할을 합니다. 이는 Pantic AI와 LangChain의 Tools와 유사한 방식으로 작동합니다.
Archon 실행 시 스레드 ID 관리의 중요성을 설명하며, 대화 관리를 위해 올바른 스레드 ID 전달이 필요합니다.
MCP 서버 구현은 간단한 Fast API 기반이며, 가상 환경 설정과 MCP 설정 생성을 자동화하는 스크립트도 제공됩니다.
터미널에서 실행 중인 API 엔드포인트를 확인하고, setup-mcp.py 스크립트 실행 방법을 시연합니다.
Archon MCP 설정을 최대한 간단하게 만들었으며, 실행 방법과 에이전트 구축 과정을 설명하기 시작합니다.
GitHub 저장소의 README에서 Streamlit 직접 사용 방식과 MCP 서버 사용 방식 모두를 지원하는 설치 방법을 설명합니다.
Windsurf와 Cursor를 포함한 다양한 도구에서의 설정 방법과 환경 변수 설정, RAG를 위한 문서 처리 방법을 안내합니다.
[00:20:00] 최종 데모와 향후 발전 방향

Archon을 통한 최종 AI 에이전트 생성 과정, 실시간 문제 해결 및 피드백 과정, 그리고 향후 기술 발전 방향과 커뮤니티 참여 방법을 논의합니다.

현재 개발 단계와 향후 개선 계획을 공유하고, 에이전트 구축 테스트를 시작할 것을 안내합니다.
시작 부분에서 만들었던 Brave 에이전트를 최종 데모에서 완성하기로 결정했습니다. 같은 프롬프트를 사용하되 처음부터 새로 구현할 예정입니다.
Archon API 엔드포인트와 그래프 서비스를 준비하고, 실시간 로그를 통해 진행 상황을 모니터링합니다.
Archon에 AI 에이전트 생성을 요청하고, 스레드 ID를 받아 서브에이전트로서 Archon의 전문성을 활용합니다.
Reasoner 모델 03 미니를 시작으로 Pantic AI 문서를 포함한 스코프를 생성하고, RAG를 통해 필요한 정보를 수집합니다.
Archon으로부터 최종 응답을 받아 IDE에 구현을 시작합니다. requirements.txt와 기본 에이전트 구조를 검토합니다.
휴먼 인 더 루프 방식을 도입하여 모델이 None으로 설정된 문제를 수정하기로 결정합니다.
요즘은 모든 사람들이 AI IDE를 사용하고 있죠.
Windsurf나 Cursor 같은 것들을 비개발자들도
놀라운 일들을 해내고 있습니다.
저는 이런 도구들을 사용할 때
특히 최근에 추가된
문서 검색이나
Claude MCP 지원 같은 기능들로 생산성의 왕이 된 것 같습니다.
하지만 문제는 이런 도구들이
장점이 많은 만큼
단점도 많다는 겁니다.
끔찍한 코드를 계속 환각하고 있죠.
심지어 상세한 문서와
지침을 제공해도 말이에요.
여러분, 이제는 정말
AI 코딩 어시스턴트의 큰 업그레이드가 필요한 시점입니다.
이러한 환각 문제들을 해결하기 위해서죠.
그리고 저는 다음 진화가 무엇일지
발견하기 시작했다고 생각합니다.
단순한 점진적 개선이 아닙니다.
완전한 패러다임의 전환을 말씀드리는 겁니다.
제가 보여드릴 것은 매우 실험적이지만
AI 코딩의 다음 혁신이 될 것이라 확신합니다.
이것은 매우 실험적이지만
진정한 다음 혁신이 될 것이라 믿습니다.
이 모든 것은 특화된 서브에이전트와
Claude의 MCP를 중심으로 돌아갑니다.
이 영상에서 Archon을 예시로 보여드리겠습니다.
제가 최근에 시작한
Archon이라는 AI 에이전트를 통해 설명하겠습니다.
이것은 제가 가장 좋아하는 프레임워크인
Pantic AI와 LangGraph를 사용해 다른 AI 에이전트를 만드는 도구입니다.
자, 이제 집중해주세요.
최대한 빠르게 설명해드리겠습니다.
현재 문제는
AI 코딩 어시스턴트가 너무 일반적이라는 겁니다.
현재 AI 코딩 어시스턴트들은 너무 범용적입니다.
모든 일을 할 수는 있지만
어느 것 하나 전문적이지 않죠.
다양한 프레임워크, 도구,
라이브러리로 코딩할 때 특히 그렇습니다.
문서를 제공해도
프레임워크에 대한 문서를 제공해도
그것만으로는 충분하지 않습니다.
여전히 너무 일반적이죠.
그렇다면 해결책은 무엇일까요?
어떻게 더 전문화할 수 있을까요?
제가 꿈꾸기 시작한
황금 티켓을 공유하고 싶습니다.
특정 도구나 프레임워크를 위해
특별히 만들어진 전문 에이전트들을
상상해보세요.
이 에이전트들은 필요할 때
Windsurf나 Cursor 같은 일반 AI 코더들이
호출할 수 있습니다.
이것이 최고의 조합인 이유는
때로는 일반 코더가 필요하고
또 다른 때는
특정 프레임워크에 특화된
전문가가 필요하기 때문입니다.
이것은 지금 당장 가능합니다.
이러한 특화된 에이전트들을
MCP 도구로 작동하는 서브에이전트로 정의할 수 있기 때문입니다.
이를 모든 인기있는 AI 코딩 어시스턴트에
통합할 수 있습니다.
Claude의 MCP가 널리 채택되고 있기 때문이죠.
복잡해 보이지만 사실 그렇지 않습니다.
이 영상에서 정확히 보여드리겠습니다.
제가 언급했던 Archon,
AI 에이전트 빌더를
이러한 MCP 서브에이전트 중 하나로 변환하고
Windsurf에 직접 통합해보겠습니다.
Cursor나 다른 AI 코더에서도
동일하게 할 수 있습니다.
자, 이제 시연해드리겠습니다.
매우 실험적인 알파 단계지만
확실히 말씀드릴 수 있습니다.
여러분의 상상력을 자극할
무한한 가능성을 보여드리겠습니다
이제 바로 데모를 시작해보겠습니다
Windsurf 내에서 Archon을 사용하여
AI 에이전트를 구축하는 데모를 보여드리고
이 영상의 나머지 부분에서는
제가 어떻게 설정했는지 자세히 설명해드리겠습니다
Archon은 원래 Streamlit
인터페이스에서 실행되었는데
이 영상에서 제가 Archon을
여기 보이는 것처럼 L-Graph와
Pantic AI를 사용해서 어떻게 만들었는지
정확히 보여드리겠습니다
이제 우리는 Archon의 다음 진화 단계인
MCP 서브에이전트로의 전환에 집중하고 있습니다
자, 이제 첫 번째 프롬프트를 입력해보겠습니다
여기서 저는 'Brave를 사용하여 웹 검색이 가능한
AI 에이전트를 Archon으로 만들어줘'라고
매우 기본적인 프롬프트로 시작합니다
Archon이 아직 초기 단계이기 때문입니다
하지만 여기 있는 망치 아이콘을 클릭하면
프롬프트를 보내기 전에
실제로 확인할 수 있습니다
여기 제가 설정한 MCP 서버들이 있는데
현재는 Archon만 구성되어 있습니다
두 가지 도구가 있는데
하나는 스레드 ID를 생성하는 것입니다
Archon은 Windsurf처럼
대화를 관리하기 위한 대화 ID가 필요하기 때문입니다
그리고 다른 하나는
실제로 에이전트를 생성하거나
작업하기 위한 주요 도구입니다
첫 번째 Archon 비디오에서 보여드린
사람이 참여하는 피드백 루프로
반복적으로 작업할 수 있습니다
이제 요청을 보내보겠습니다
먼저 스레드 ID를 생성하는
도구를 호출할 것입니다
이것은 앞으로의 모든 Archon 호출에
전달될 것입니다
첫 번째 비디오 이후에 제가 만든
Archon API 엔드포인트를 사용할 것입니다
이미 첫 번째 요청을 하고 있고
Windsurf가 API 요청이
완료되기를 기다리고 있는 것을 볼 수 있습니다
이것은 시간이 좀 걸릴 텐데
Archon이 전체 워크플로우를 가지고 있기 때문입니다
Reasoner 모델을 통해
에이전트의 초기 범위를 생성하고
여기서 보는 것처럼
RAG를 수행하는 코더 에이전트로 이동합니다
Pantic AI 문서를 가져와서
모두 결합하여 AI 에이전트의
초기 버전을 만듭니다
그리고 에이전트 생성이 완료되면
곧 제어권이 Windsurf로
다시 넘어갈 것입니다
참고로 현재 Reasoner 모델로는
O3-mini를 사용하고 있고, 실제 코더로는
GPT-4를 사용하고 있습니다
보세요, Archon API 응답이 완료되었습니다
여기서 모든 코드가 Windsurf로 전달되어
이제 실제로 이 파일들을
생성하게 됩니다
얼마나 매끄럽게 작동하는지 보세요
서로 다른 에이전트들 사이에서
제어가 아주 잘 이루어지고 있습니다
그리고 여기 있네요
Archon이 만든 코드로 agent.py를 생성했습니다
그리고 Archon이 requirements.txt 파일과
tools 파일, env.example 파일을
모두 출력하고 있습니다
이 모든 파일들이 생성되고 있네요
Windsurf는 여기서 정말로 Archon에 의존하고 있는데,
Archon을 판틱 AI 에이전트를 구축하기 위한
특화된 서브에이전트로 지정했기 때문입니다.
지금 당장 실행하는 것을 보여드리지는 않겠지만,
이 영상 마지막에
에이전트를 완전히 구축하고 완성하여
실제로 실행하고 테스트하는 전체 예제를
보여드리도록 하겠습니다.
보시다시피,
전반적으로 코드가 잘 구성되어 있습니다.
여기 우리의 에이전트가 있고,
요구사항도 잘 정리되어 있으며,
Brave 검색을 실행하기 위한 에이전트 도구도
잘 구성되어 있고, Brave API 키가 포함된
ENV 예제 파일도 있어서 모든 것이
완벽하게 구성되어 있네요. 정말 멋집니다.
여러분도 보시다시피,
현재 이것은 매우 기본적인 예제이고
Archon이 초기 단계임에도 불구하고,
이 에이전트가 얼마나 기본적인지 보여주고 싶었습니다.
다양한 종류의 특화된 서브에이전트를 만들 수 있어서
Windsurf나 Cursor가
필요할 때 호출할 수 있습니다.
이러한 AI 코더들에게 이것들을 언제 사용해야 하는지
알려주는 방법은 바로 이 도구들의 설명에 있습니다.
예를 들어, Pantic AI와 LGraph 에이전트를
구축하고 싶을 때는
Archon을 사용하라고 알려줄 수 있고,
이를 위한 도구들도 제공됩니다.
따라서 Cursor 설정이나
Windsurf 규칙을 직접 수정할 필요 없이
모든 설명들이 가이드 역할을 합니다.
MCP 서버에 모든 것이 정의되어 있기 때문입니다.
새로운 혁신이 있을 때마다
항상 많은 질문들이 따르기 마련입니다.
여러분도 몇 가지 궁금한 점이 있으실 것 같은데,
이 영상에서 다루지 않는 내용이 있다면
댓글로 남겨주시기 바랍니다.
지금은 제가 예상하는
주요 질문들에 대해
몇 가지 답변을 드리도록 하겠습니다.
첫 번째 큰 질문은
왜 Windsurf나 Cursor같은 AI 코더에
내장된 문서 기능을 사용하지 않느냐는 것입니다.
오른쪽 하단에서 @pantic-ai를
입력하면
바로 Pantic AI 문서를 사용할 수 있고,
Windsurf가 다음 요청을 수행하는 데
이 문서를 사용할 것입니다.
@lgraph를 입력하면
LGraph 문서도 바로 사용할 수 있죠.
그렇다면 왜 이것을 사용하지 않고
Archon을 사용하여 Pantic AI와
LGraph 에이전트를 코딩하는 걸까요?
여기에는 두 가지 주요 이유가 있습니다.
첫째, Archon의 에이전트 흐름에서
Reasoner 모델과 내장된 시스템 프롬프트를 통해
우리가 에이전트를 분할한 다양한 파일들에 대해
매우 일관된 출력을 얻을 수 있고,
스크립트 자체의 구조도 일관성 있게 유지됩니다.
Windsurf나 Cursor에서는
규칙을 편집할 수는 있지만,
시스템 프롬프트 이상의 것이 필요합니다.
Archon의 전체적인 흐름이 이 일관된 코드를 만들어내죠.
저는 이 점이 매우 마음에 들고,
Windsurf에서는
이러한 일관성을 얻을 수 없습니다.
매번 매우 다른 모습의 코드가 생성되며,
이로 인해 더 많은 오류가 발생합니다.
Windsurf는 매번 전혀 다른 모습의
코드를 생성하고,
이로 인해 더 많은 오류가 발생하며,
이것이 바로 두 번째 큰 문제입니다.
또한...
Archon을 사용하면 코드의 품질이 항상 더 좋습니다.
현재는 Archon이 초기 단계라 비슷한 수준일 수 있지만,
지금은 Archon이 초기 단계이기 때문에
하지만 앞으로 발전시켜 나가면서
자체 피드백 루프와 문제를 여러 섹션으로
나눌 수 있는 기능을 추가하고
문제를 작은 단계로 분할하여
처리하면, 일반적인 코딩 도구보다
훨씬 더 견고한 결과물을 만들 수 있습니다.
일반 코더가 한 번에 모든 코드를 생성하고
거기서부터 개선하는 것보다
한 번에 생성하고 점진적으로
개선하는 방식보다 훨씬 더 나은
시작점을 제공할 것입니다.
Archon을 사용하면
문서를 더 잘 활용할 수 있어서
더욱 효과적입니다.
이것이 우리가 Archon을 사용하는 이유입니다.
그리고 두 번째 중요한 질문은
여기서 왜 Thread ID를 생성하느냐 입니다.
MCP 서버는 원래 상태를 유지하지 않고
stateless하도록 설계되어 있죠.
도구를 호출하면 응답을 주고
모든 것을 잊어버리는 방식인데,
이 경우 Archon은 Windsurf처럼
대화 기록을 유지하는
하위 에이전트 도구입니다.
여기 Archon의 Lang 그래프가 있는데
이 모든 것이 상태를 유지합니다.
우리는 범위를 생성하는
Reasoner가 있고 이것이 코더 에이전트로 이동하며
human-in-the-loop 방식으로
에이전트에게 반복 작업을
요청할 수 있습니다.
따라서 대화를 유지하기 위해
식별자를 사용해야 합니다.
이 Windsurf 대화가 Archon의
어떤 실행과 매핑되는지 알아야 하기 때문입니다.
그래서 이 Thread ID를 생성하고
LLM이 이 도구에
Thread ID를 전달하는 것을 기억해야 합니다.
LLM이 이 Thread ID를 추적해야 하는데
이것이 약간 불편하긴 하지만
LLM에 의존해야 하는 부분이지만
놀랍게도 지금까지 100% 잘 작동했습니다.
그래서 향후 반복 작업에서
에이전트를 개선하기 위해
Archon을 다시 사용하라고 지시하면
동일한 Thread ID를 사용하여
실행을 이어갈 수 있습니다.
human-in-the-loop 피드백 루프의
다음 단계로 진행되는 거죠.
이것이 Thread ID를 사용하는 방식입니다.
MCP에 약간 강제로 적용된 면이 있지만
잘 작동하고 있습니다.
네, 저는 지금
혁신의 최전선에 있습니다.
이런 것을 본 적이 없어서
모든 것을 진행하면서
알아가고 있는 중이지만
정말 멋진 결과를 얻고 있습니다.
이제 MCP에 대해 더 자세히 살펴보고
Archon에 대해 이야기하면서
어떻게 모든 것을 통합했는지 보여드리겠습니다.
오늘 영상의 스폰서는 Fish Audio입니다.
매우 인상적인 음성 복제와
음성 변환 솔루션으로
개발자, 마케터, 콘텐츠 크리에이터들의
AI 오디오 제작 방식을 변화시키고 있습니다.
Fish Audio는 단순한 음성-텍스트 변환 도구가 아닙니다.
최첨단 실시간
음성-음성 변환 모델로
최고 수준의 현실감을 제공합니다.
빠르게 데모를 보여드리겠습니다.
자, Fish Audio 홈페이지에서
내 보이스 라이브러리의 커스텀 보이스로 가서
새로운 보이스를 만들면 됩니다.
여기서 몇 분 만에 자신의 목소리를 복제할 수 있죠.
커버 이미지를 추가하고
이름과 설명을 입력한 다음
하단에 샘플 클립을
추가하면 AI가 이를 모방하게 됩니다. 권장 시간은
약 30초이며, UI에서 직접
녹음도 할 수 있어서
정말 사용하기 쉽습니다.
'생성하기'를 클릭하세요. 제 경우에는
이미 만들어둔 커스텀 보이스를
사용하도록 하겠습니다. 여기에
제가 준비한 재미있는 샘플 문구를 붙여넣을 건데요
"Archon이 최고의 AI 에이전트
빌더다"라고 했습니다. 프로팁을 하나 드리자면
발음을 더 정확하게 하기 위해
철자를 약간 수정할 수 있습니다.
이 모든 기능은
API를 통해서도 사용 가능해서
프로그래밍 방식으로도 활용할 수 있죠.
속도와 볼륨도 조절할 수 있고
생성 버튼을 누르면 몇 초 안에
오디오 클립이 생성되어 재생됩니다.
"Archon은 역대 최고의 AI 에이전트
빌더이며, 앞으로도 그럴 것입니다.
믿기지 않으시나요? 왜 안 믿으시죠?"
Fish Audio는 모든 것을 할 수 있도록 설계되었습니다.
유튜브 보이스오버, 음성 에이전트,
프로젝트에 다양한 언어 추가 등
무엇이든 가능하죠. 동시에
매우 저렴한 가격으로, 기존 음성 플랫폼인
Eleven Labs보다 50% 저렴하고 2배
더 빠릅니다. Eleven Labs는 오랫동안
대표적인 음성 플랫폼이었지만
제게는 항상 너무 비싸다고 느껴졌거든요.
Fish Audio가 AI 음성 플랫폼의
새로운 강자가 될 것 같습니다.
Fish Audio를 테스트하면서 받은 인상은
정말 놀라웠다는 말로는 부족합니다. 여러분도
AI 음성 게임을 한 단계 업그레이드하고
프로젝트를 진정으로
프로페셔널하게 만들고 싶다면 fish.audio로
가서 관대한 무료 체험을
신청하고 AI 음성 복제의 마법을
직접 경험해보세요. 2분도 안 되는
시간 안에 바로 시도해볼 수 있으니
꼭 한번 사용해보시고 얼마나 잘 작동하는지
확인해보세요. 설명란에
Fish Audio 링크도 남겨두었습니다.
제가 Archon을 MCP 서브에이전트로
어떻게 구축했는지 보여드리기 전에
가장 중요한 것은 MCP가 무엇이고
Archon이 무엇이며, 이 둘을 어떻게
결합해서 특화된 에이전트를
만들 수 있는지에 대한
맥락을 이해하는 것입니다. 우선 MCP는
Claude가 최근 몇 달 전에 개발한
프로토콜로, 대규모 언어 모델과
도구 사용을 표준화하기 위한 것입니다.
자세한 내용이 궁금하시다면
전체 문서를 읽어보실 수 있는데
기본적으로 서버를 생성해서
특정 서비스의 API 엔드포인트에
접근할 수 있게 하는 방식입니다.
GitHub, Google Drive, Discord 등
어떤 서비스든 가능하죠. 이 서버는
대규모 언어 모델에 노출되어
LLM에 도구들을 동적으로 제공합니다.
따라서 GitHub용 MCP 서버를 실행하고
이를 Windsurf나 Claude Desktop 등의
LLM에 제공하면
자동으로 연동이 됩니다.
이제 LLM이 GitHub 저장소에서
여러분을 대신해서 작업을 할 수 있게 되었죠.
이런 서버들을 빠르게 구축하고
LLM에게 즉시 접근 권한을 부여할 수 있다는 게
정말 멋진 것 같아요.
Brave 검색용 서버도 있고,
Google Drive용, SQL 데이터베이스용,
이 모든 서버들이 있죠.
이제 Archon처럼 커뮤니티에서
만들어진 서드파티 서버들이
많이 있습니다.
JetBrains나 Stripe, AWS S3 같은 것들도 있고,
아래로 스크롤을 내려보면
Discord, DeepSeek, R1 등이 있습니다.
이 모든 서버들을 지금 당장 다운로드할 수 있고
전부 오픈소스입니다.
제 컴퓨터에서 직접 실행하거나
클라우드의 API 엔드포인트를 참조할 수 있고
그러면 바로
제가 LLM을 실행하는 어디에서든
이 모든 도구들을 사용할 수 있게 됩니다.
이것이 바로 우리가 Archon으로 하고 있는 일이죠.
Archon은 AI 메타 에이전트로,
Pantic AI와 LangGraph를 사용해 다른 에이전트들을 만드는 에이전트입니다.
최근에 개발을 시작했고
제 채널에는 아직 한 개의 영상만 있지만,
기본적으로 저는 Pantic AI와
LangGraph를 가르치기 위한 이니셔티브를 개발하고 있고,
궁극적으로는
강력한 서브에이전트로 발전시켜
AI 코더들이 Pantic AI와 LangGraph로
에이전트를 아주 깔끔하게 만들 수 있도록 할 계획입니다.
그래서 지금 MCP로
이것을 도구로 만들어서
방금 Windsurf에서 본 것처럼
LLM에게 제공하고 있습니다.
기본적으로 Windsurf에서 실행되는 Claude 3.5 Sonnet이
도구로 Archon을 가지고 있는 거죠.
이것이 Archon으로 에이전트를 코딩하는
전체 워크플로우를 정의하는 LangGraph 그래프입니다.
시작점에 Reasoner가 있어서
에이전트 구축을 위한 범위와
상위 수준의 추론을 정의하고,
이것이 실제 코드를 생성하는
더 빠른 코더 에이전트로 전달됩니다.
그리고 여기에 피드백 루프가 있어서
사용자로부터 입력을 받아
에이전트를 반복적으로 개선하고
최종 응답과
에이전트 실행 지침을 마지막에 제공합니다.
그리고 이 전체 워크플로우를 패키지로 만들어서
AI 코더들에게 도구로 제공하는 겁니다.
이것이 Archon을 MCP 서브에이전트로 사용하는 힘입니다.
이제 이런 맥락을 이해했으니
실제로 MCP 서버를 어떻게 설정하고
Archon과 모든 것을 연결했는지 살펴보겠습니다.
이것이 우리의 Archon MCP 서버를 위한
파이썬 스크립트입니다.
지금은 개략적으로 설명하고,
나중에 제 채널에서
파이썬 MCP 서버를
처음부터 만드는 방법을 자세히 다룰 수도 있습니다.
문서 링크도
설명란에 있을 텐데,
직접 살펴보고 싶으시다면
파이썬과 자바스크립트
두 가지 모두를 위한 서버를 만들 수 있습니다.
전체적으로 보면, MCP 파이썬 SDK와 함께
FastAPI를 사용하고 있고, 첫 번째 도구는
스레드 ID를 생성하는 것입니다.
Archon이 대화 기록을 관리하는 데
이것이 필요하기 때문이죠.
그리고 두 번째 도구는
실제로 Archon을 호출하는 것입니다.
이것은 제가 만든 Archon API 엔드포인트를 통해
구현되는데, 이는 Archon 버전 3의
새로운 기능입니다. 우리는
제가 만든 Fast API 엔드포인트를 사용하고 있는데
이것은 Archon과 상호작용하는 방식이
제 채널의 이전 Archon 영상에서
Streamlit을 사용했던 방식과 매우 유사합니다
그리고 이전 영상에서 보여드렸던 Archon 그래프는
처음부터 완전히 구축하는 방법을
보여드렸는데, 이 부분은
완전히 동일하게 유지됩니다
변경한 것이 없고
단지 Fast API 엔드포인트로 모두 래핑했습니다
이것을 MCP 서버에서 호출하고 있죠
그래서 이는 매우 간단한 구현인데
Archon을 반드시
MCP 서버로 사용할 필요가 없습니다
저는 여러분에게 유연성을 제공하여
Streamlit에서 작업하거나
API 엔드포인트로 사용할 수 있고
다른 프론트엔드를 만들 수도 있습니다
반드시 MCP 서버로 사용할 필요는 없지만
MCP 서버로도 쉽게 사용할 수 있게 했습니다
실제로 README를 보시면
여기 미리보기를 열어보겠습니다
업데이트된 Archon 사용 설명서에서
MCP 서버 설정 없이도
실행하는 방법을 보여드립니다
Streamlit만으로도 가능하고
MCP로도 가능합니다
두 가지 방법 모두 다뤘고
README에 설명이 있어서
매우 쉽게 설정할 수 있습니다
여러분이 직접 시도해볼 수 있도록
Windsurf나 Cursor
또는 Streamlit 등에서 실행해볼 수 있습니다
그리고 다른 중요한 점은
MCP 서버에 대해 강조하고 싶은데
일반적으로 작동하는 방식에서
함수 정의 상단에 있는 독스트링은
매우 중요합니다
이는 Pantic AI와 LangChain의 Tools와 유사한데
이것들이 LLM에게 실제로 언제
그리고 어떻게 도구를 사용할지 알려줍니다
여기 보이는 이 정확한 문자열을
Windsurf로 돌아가서 보여드리겠습니다
보세요, 바로 여기 있습니다
함수의 정의에서
이 문자열이 실제로
Windsurf의 Claude 3.5 프롬프트에
포함되어 있어서
도구를 언제 어떻게
사용할지 이해할 수 있습니다
예를 들어, Claude에게
Archon을 실행하기 전에
AI 에이전트 구축을 시작할 때
스레드 ID를 생성해야 하고
시작이 아닌 경우에는
동일한 스레드 ID를 전달해야 한다고 알려줍니다
Archon이 대화를 관리하기 때문에
스레드 ID가 없으면
실행되지 않으므로 이 도구를 실행할 때
파라미터로 전달해야 합니다
이것이 MCP 서버의 전체적인 모습이고
그래프는 변경되지 않았으며 매우 간단한
Fast API 구현입니다
자세히 설명하지는 않겠습니다
그리고 제가 만든
스크립트도 있는데
설명서에도 포함되어 있습니다
가상 환경을 완전히 설정해주고
Cursor나 Warp에 넣을 MCP 설정도 생성해줍니다
제 터미널을 보여드리겠습니다
터미널을 보여드리겠습니다.
여기 실행 중인 API 엔드포인트가 있는데
이것을 중지하고
명령어를 실행해보겠습니다.
Python setup-mcp.py를 실행하면
가상환경이 이미 생성되어 있어서
해당 단계는 건너뛰고
Cursor에 넣어야 할 설정을
보여줍니다. README에 관련 설명이 있고
또한 Windsurf나
MCP 설정에 넣을 JSON도 제공합니다.
Claude Desktop에서도 사용할 수 있죠.
이 스크립트를 실행하면
정확히 무엇을 해야 하는지 알 수 있습니다.
Archon MCP 설정을 최대한 간단하게 만들었습니다.
가능한 한 쉽게 만들었죠.
자, 이제 빠르게
실행 방법을 보여드리고
처음부터 에이전트를 만들어보겠습니다.
GitHub 저장소의 루트에 있는
README로 돌아가보면
설치 방법이 나와있습니다.
예전 방식대로
Streamlit으로 직접 상호작용하고
MCP 서버로 사용하지 않을 경우에도
여전히 지원됩니다.
레포지토리를 클론하고
가상환경을 활성화한 다음
필요한 패키지들을
설치하면 됩니다.
MCP를 통해 사용한다면
앞서 보여드린 설정 스크립트를 실행하면
가상환경을 설정하고
MCP 설정을 제공받을 수 있습니다.
그리고 가상환경을
활성화해야 합니다.
Windsurf와 Cursor 모두에 대한 설명이 있어서
설정 스크립트가 제공하는 설정을
적용할 수 있고
다른 도구를 사용하더라도
Claude Desktop이나
MCP를 지원하는 다른 AI 코더를 사용할 때
이와 비슷하게 적용할 수 있습니다.
환경 변수 설정도
동일하게 유지됩니다.
Python 스크립트를 실행해서
Pantic AI 문서를 가져오고
Supabase 지식 베이스에
RAG를 위해 저장하는 것도 동일합니다.
MCP 서버를 사용할 때는 API 엔드포인트를 실행해서
Archon을 API로 노출시켜야 하고
아니면 Streamlit을 직접 사용할 수 있는데
이는 그래프와 직접 상호작용하므로
MCP처럼 API를 거치지 않습니다.
이게 실행 방법의 전부입니다.
모든 명령어를 지금
실행하진 않겠습니다.
이미 충분히 명확할 거라 생각하고
제 머신에서 이미 실행 중이니
이제 실제로
테스트를 해보겠습니다.
전체 Archon 그래프를 Windsurf를 위한
도구로 패키징했고,
매우 중요한 점을 다시 강조하자면
이것은 정말 개발의 초기 단계입니다.
앞으로 더 많은 노드를 추가하고
시스템 프롬프트를 개선하고
도구 라이브러리도 추가할 예정입니다.
더 견고하게 만들기 위한
많은 아이디어가 있지만
이것도 좋은 시작점입니다.
이제 처음부터 에이전트를 만들고
개선하고 테스트해보겠습니다.
시작 부분에서 다뤘던 Brave 에이전트를
가져와서
마지막 데모에서 완성해보는 것이
적절할 것 같습니다. 처음부터 만들지만
같은 프롬프트를 사용할 거예요.
여기 Archon을 위한 API 엔드포인트가
준비되어 있고, 그래프 서비스도 있습니다.
로그를 보여드리겠습니다.
에이전트를 만들 때
실시간으로 진행되는 걸 보실 수 있죠.
동일한 프롬프트를 붙여넣겠습니다.
'Archon을 사용해 AI 에이전트를 만들어줘'
먼저 스레드 ID를 받고, Archon에게 도움을 요청하네요.
정말 흥미로운 부분인데요,
이건 마치 한 에이전트가
다른 에이전트에게 도움을 요청하는 거죠.
자신에게 없는 전문성이 필요할 때
Reasoner 모델 03 미니로 시작해서
스코프를 생성하는데,
여기에는 Pantic AI 문서도 포함됩니다.
코더가 봐야 할 페이지들을 찾아내죠.
자, 이제 Pantic AI 코더가
RAG를 수행해서 모든 내용을 가져옵니다.
AI 에이전트를 만들기 위한 작업이죠.
Pantic AI 문서를 기반으로 하고
나중에는 Lang Graph로도
확장할 예정이지만,
일단 Archon으로 간단하게 시작해보죠.
이제 최종 응답을 생성하고 있고
Windsurf가 기다리는 중입니다.
잠시 후면 화면이 깜빡이면서
네, 바로 이렇게 됩니다.
Archon에서 최종 응답을 받았고
이제 이 파일들을
IDE에 구현할 거예요.
requirements.txt부터 시작해보죠.
좋네요. Pantic AI와 httpx,
필요한 의존성만 정확히 있습니다.
그리고 여기 우리의 에이전트가 있네요.
음, 꽤 괜찮아 보이는데
모델이 None으로 되어 있는 게
마음에 들지 않네요.
전반적으로는 괜찮아요.
Brave 검색 도구도 잘 되어 있고,
그리고 여기 env 예제 파일에
Brave API 키도 잘 설정되어 있네요.
LLM을 구현해야 할 것 같지만
나머지는 다 좋아 보입니다.
이 변경사항들을 수락하고
이제 휴먼 인 더 루프를 사용할 건데요,
잠깐 제 위치를 옮겨서
제가 타이핑하는 걸 보여드리겠습니다.
제가 발견한 첫 번째 큰 문제를
수정하도록 요청할 건데요,
모델이 None으로 되어 있어서
Archon에게 Brave 검색 에이전트의 모델을 수정하도록 요청하겠습니다.
현재 모델이 None인데
GPT-4.0을 사용하도록 하죠.
이제 휴먼 인 더 루프를 사용해서
Archon을 호출할 건데요,
동일한 스레드 ID를 사용합니다.
로그를 다시 보시면
바로 Pantic AI 코더로 넘어갔죠.
이번에는 Reasoner를 호출하지 않았는데
이미 그래프 실행 중이고
코더 에이전트와의 루프 안에 있기 때문이죠.
Archon에서 응답을 받았고
모델을 수정했습니다.
OpenAI GPT-4로 변경됐는데
GPT-4.0이 되어야 할 것 같아서
바로 여기서 수정하겠습니다.
아직은 약간의 수작업이 필요하네요.
아직은 사람의 개입이 필요합니다. 특히
Archon이 아직 초기 구현 단계이기 때문인데요
하지만 정말 멋진 점은
Archon을 사용해서
에이전트를 업데이트하는 것을 볼 수 있었죠
물론 이것은
Windsurf가 할 수 있는 일이지만
여기서는 단순한 예시로
Archon과 함께 사람이 개입하는
과정을 보여주고 싶었습니다. 그래서 이제
잘 진행되고 있는데요, 제가 할 일은
카메라 밖에서 이것을 테스트하고
발생한 작은 문제들을 수정한 다음
Streamlit 인터페이스로 실행해보겠습니다
몇 가지를 수정하고 돌아왔는데
작동하는 상태로 만드는 데
많은 시간이 걸리지 않았습니다
제가 빠르게 만든 Streamlit 인터페이스로
에이전트가 완벽하게 작동하는 것을
보여드리겠습니다. 주로 수정한 부분은
환경 변수 설정 외에도
EnV를 생성하고
에이전트에서 사용하지 않았던 부분과
Brave API와 상호작용하기 위한
올바른 URL과 매개변수가 없었습니다
결국 Pantic AI나
Langraph 관련 문제가 아니라
Brave API와 관련된
환각 현상이었는데, 이는 제가 문서를
제공하지 않았기 때문이죠
그래서 Archon을 탓할 수는 없습니다
Windsurf에서도 똑같은 일이 발생했을 거예요
이런 이유로 도구 라이브러리가
매우 유용할 것 같습니다
미리 만들어진 Brave 도구가
Pantic AI 에이전트에서
바로 사용될 수 있도록 말이죠
이것만 수정하고 나머지는 그대로 두었습니다
그리고 Streamlit 인터페이스를 만들어서
방금 실행해봤는데
streamlit run 명령어로
streamlit ui.py를 실행했고
프로젝트 의존성에도 추가했습니다
그리고 이제 우리는
채팅 인터페이스를 가지게 되었죠
이 에이전트는 거의 완전히
Archon이 생성했고, Windsurf는
도움을 요청하는 정도만 했습니다
이제 질문을 해볼 수 있는데요
'일론 머스크의 순자산이 얼마인가요?' 같은
LLM이 학습 데이터 기준으로는
알 수 없는 질문을 해보겠습니다
웹 검색 도구를 활용할 텐데
보시는 것처럼 로그에서
Brave API에
순자산 검색 요청을 했고
4,000억 달러라는 결과가 나왔네요
정말 엄청난 금액이지만 정확한 답변입니다
이렇게 Archon 에이전트가 완벽하게 작동하고
앞으로도 계속 Archon을
MCP 서버로 발전시켜 나갈 예정이며
더 놀라운 기능들을 추가할 것입니다
점점 더 좋아질 거예요
이제 Archon이 AI IDE에
MCP 서버로 통합될 수 있게 되어
제가 선호하는 프레임워크로 다른 에이전트를
만들 수 있는 강력한 서브에이전트로
발전시킬 아이디어가 많습니다
에이전트 흐름을 자유롭게 실험할 수 있고
파일 생성과 편집의 물류적인 문제를
걱정하지 않아도 되는 것이
정말 좋습니다. AI 코더들이
이제 그 부분을 처리해주니까요
설명란에 링크된 GitHub 리드미를
확인해보시면 Archon의
향후 계획을 보실 수 있습니다
일부만 공개했지만
정말 많은 아이디어가 있어요
자체 피드백 루프나
에이전트 생성을 더 작은 단계로 나누거나
도구 라이브러리 등
정말 흥미진진한 아이디어들이 많습니다
여러분도 제안하고 싶은 것이 있거나
기여하고 싶으시다면 언제든 환영합니다
Archon은 커뮤니티 주도 프로젝트이니까요
이 영상이 도움이 되었고
AI 에이전트와 Archon의
더 많은 소식을 기대하신다면
좋아요와 구독 부탁드립니다
다음 영상에서 뵙겠습니다
감사합니다