[00:00]
요즘은 모든 사람들이 AI IDE를 사용하고 있죠.
[00:02]
Windsurf나 Cursor 같은 것들을 비개발자들도
[00:05]
놀라운 일들을 해내고 있습니다.
[00:08]
저는 이런 도구들을 사용할 때
[00:10]
특히 최근에 추가된
[00:12]
문서 검색이나
[00:14]
Claude MCP 지원 같은 기능들로 생산성의 왕이 된 것 같습니다.
[00:16]
하지만 문제는 이런 도구들이
[00:19]
장점이 많은 만큼
[00:21]
단점도 많다는 겁니다.
[00:22]
끔찍한 코드를 계속 환각하고 있죠.
[00:25]
심지어 상세한 문서와
[00:27]
지침을 제공해도 말이에요.
[00:29]
여러분, 이제는 정말
[00:31]
AI 코딩 어시스턴트의 큰 업그레이드가 필요한 시점입니다.
[00:34]
이러한 환각 문제들을 해결하기 위해서죠.
[00:36]
그리고 저는 다음 진화가 무엇일지
[00:38]
발견하기 시작했다고 생각합니다.
[00:40]
단순한 점진적 개선이 아닙니다.
[00:43]
완전한 패러다임의 전환을 말씀드리는 겁니다.
[00:44]
제가 보여드릴 것은 매우 실험적이지만
[00:47]
AI 코딩의 다음 혁신이 될 것이라 확신합니다.
[00:49]
이것은 매우 실험적이지만
[00:52]
진정한 다음 혁신이 될 것이라 믿습니다.
[00:53]
이 모든 것은 특화된 서브에이전트와
[00:56]
Claude의 MCP를 중심으로 돌아갑니다.
[00:58]
이 영상에서 Archon을 예시로 보여드리겠습니다.
[01:01]
제가 최근에 시작한
[01:03]
Archon이라는 AI 에이전트를 통해 설명하겠습니다.
[01:05]
이것은 제가 가장 좋아하는 프레임워크인
[01:07]
Pantic AI와 LangGraph를 사용해 다른 AI 에이전트를 만드는 도구입니다.
[01:10]
자, 이제 집중해주세요.
[01:12]
최대한 빠르게 설명해드리겠습니다.
[01:14]
현재 문제는
[01:15]
AI 코딩 어시스턴트가 너무 일반적이라는 겁니다.
[01:17]
현재 AI 코딩 어시스턴트들은 너무 범용적입니다.
[01:20]
모든 일을 할 수는 있지만
[01:23]
어느 것 하나 전문적이지 않죠.
[01:25]
다양한 프레임워크, 도구,
[01:27]
라이브러리로 코딩할 때 특히 그렇습니다.
[01:29]
문서를 제공해도
[01:31]
프레임워크에 대한 문서를 제공해도
[01:32]
그것만으로는 충분하지 않습니다.
[01:34]
여전히 너무 일반적이죠.
[01:36]
그렇다면 해결책은 무엇일까요?
[01:38]
어떻게 더 전문화할 수 있을까요?
[01:41]
제가 꿈꾸기 시작한
[01:43]
황금 티켓을 공유하고 싶습니다.
[01:44]
특정 도구나 프레임워크를 위해
[01:47]
특별히 만들어진 전문 에이전트들을
[01:49]
상상해보세요.
[01:51]
이 에이전트들은 필요할 때
[01:54]
Windsurf나 Cursor 같은 일반 AI 코더들이
[01:56]
호출할 수 있습니다.
[01:58]
이것이 최고의 조합인 이유는
[02:00]
때로는 일반 코더가 필요하고
[02:02]
또 다른 때는
[02:03]
특정 프레임워크에 특화된
[02:05]
전문가가 필요하기 때문입니다.
[02:06]
이것은 지금 당장 가능합니다.
[02:10]
이러한 특화된 에이전트들을
[02:12]
MCP 도구로 작동하는 서브에이전트로 정의할 수 있기 때문입니다.
[02:15]
이를 모든 인기있는 AI 코딩 어시스턴트에
[02:17]
통합할 수 있습니다.
[02:19]
Claude의 MCP가 널리 채택되고 있기 때문이죠.
[02:22]
복잡해 보이지만 사실 그렇지 않습니다.
[02:24]
이 영상에서 정확히 보여드리겠습니다.
[02:26]
제가 언급했던 Archon,
[02:28]
AI 에이전트 빌더를
[02:30]
이러한 MCP 서브에이전트 중 하나로 변환하고
[02:32]
Windsurf에 직접 통합해보겠습니다.
[02:34]
Cursor나 다른 AI 코더에서도
[02:36]
동일하게 할 수 있습니다.
[02:39]
자, 이제 시연해드리겠습니다.
[02:41]
매우 실험적인 알파 단계지만
[02:42]
확실히 말씀드릴 수 있습니다.
[02:45]
여러분의 상상력을 자극할
[02:47]
무한한 가능성을 보여드리겠습니다
[02:49]
이제 바로 데모를 시작해보겠습니다
[02:51]
Windsurf 내에서 Archon을 사용하여
[02:54]
AI 에이전트를 구축하는 데모를 보여드리고
[02:56]
이 영상의 나머지 부분에서는
[02:58]
제가 어떻게 설정했는지 자세히 설명해드리겠습니다
[03:00]
Archon은 원래 Streamlit
[03:02]
인터페이스에서 실행되었는데
[03:04]
이 영상에서 제가 Archon을
[03:05]
여기 보이는 것처럼 L-Graph와
[03:07]
Pantic AI를 사용해서 어떻게 만들었는지
[03:09]
정확히 보여드리겠습니다
[03:12]
이제 우리는 Archon의 다음 진화 단계인
[03:15]
MCP 서브에이전트로의 전환에 집중하고 있습니다
[03:17]
자, 이제 첫 번째 프롬프트를 입력해보겠습니다
[03:20]
여기서 저는 'Brave를 사용하여 웹 검색이 가능한
[03:22]
AI 에이전트를 Archon으로 만들어줘'라고
[03:24]
매우 기본적인 프롬프트로 시작합니다
[03:26]
Archon이 아직 초기 단계이기 때문입니다
[03:28]
하지만 여기 있는 망치 아이콘을 클릭하면
[03:30]
프롬프트를 보내기 전에
[03:31]
실제로 확인할 수 있습니다
[03:33]
여기 제가 설정한 MCP 서버들이 있는데
[03:35]
현재는 Archon만 구성되어 있습니다
[03:37]
두 가지 도구가 있는데
[03:39]
하나는 스레드 ID를 생성하는 것입니다
[03:41]
Archon은 Windsurf처럼
[03:43]
대화를 관리하기 위한 대화 ID가 필요하기 때문입니다
[03:46]
그리고 다른 하나는
[03:48]
실제로 에이전트를 생성하거나
[03:50]
작업하기 위한 주요 도구입니다
[03:51]
첫 번째 Archon 비디오에서 보여드린
[03:54]
사람이 참여하는 피드백 루프로
[03:56]
반복적으로 작업할 수 있습니다
[03:58]
이제 요청을 보내보겠습니다
[04:00]
먼저 스레드 ID를 생성하는
[04:02]
도구를 호출할 것입니다
[04:04]
이것은 앞으로의 모든 Archon 호출에
[04:07]
전달될 것입니다
[04:09]
첫 번째 비디오 이후에 제가 만든
[04:11]
Archon API 엔드포인트를 사용할 것입니다
[04:14]
이미 첫 번째 요청을 하고 있고
[04:16]
Windsurf가 API 요청이
[04:17]
완료되기를 기다리고 있는 것을 볼 수 있습니다
[04:20]
이것은 시간이 좀 걸릴 텐데
[04:21]
Archon이 전체 워크플로우를 가지고 있기 때문입니다
[04:24]
Reasoner 모델을 통해
[04:26]
에이전트의 초기 범위를 생성하고
[04:28]
여기서 보는 것처럼
[04:29]
RAG를 수행하는 코더 에이전트로 이동합니다
[04:31]
Pantic AI 문서를 가져와서
[04:34]
모두 결합하여 AI 에이전트의
[04:36]
초기 버전을 만듭니다
[04:39]
그리고 에이전트 생성이 완료되면
[04:41]
곧 제어권이 Windsurf로
[04:43]
다시 넘어갈 것입니다
[04:45]
참고로 현재 Reasoner 모델로는
[04:47]
O3-mini를 사용하고 있고, 실제 코더로는
[04:50]
GPT-4를 사용하고 있습니다
[04:51]
보세요, Archon API 응답이 완료되었습니다
[04:54]
여기서 모든 코드가 Windsurf로 전달되어
[04:58]
이제 실제로 이 파일들을
[05:00]
생성하게 됩니다
[05:02]
얼마나 매끄럽게 작동하는지 보세요
[05:03]
서로 다른 에이전트들 사이에서
[05:05]
제어가 아주 잘 이루어지고 있습니다
[05:07]
그리고 여기 있네요
[05:09]
Archon이 만든 코드로 agent.py를 생성했습니다
[05:12]
그리고 Archon이 requirements.txt 파일과
[05:14]
tools 파일, env.example 파일을
[05:16]
모두 출력하고 있습니다
[05:19]
이 모든 파일들이 생성되고 있네요
[05:21]
Windsurf는 여기서 정말로 Archon에 의존하고 있는데,
[05:23]
Archon을 판틱 AI 에이전트를 구축하기 위한
[05:25]
특화된 서브에이전트로 지정했기 때문입니다.
[05:28]
지금 당장 실행하는 것을 보여드리지는 않겠지만,
[05:31]
이 영상 마지막에
[05:32]
에이전트를 완전히 구축하고 완성하여
[05:34]
실제로 실행하고 테스트하는 전체 예제를
[05:36]
보여드리도록 하겠습니다.
[05:38]
보시다시피,
[05:40]
전반적으로 코드가 잘 구성되어 있습니다.
[05:42]
여기 우리의 에이전트가 있고,
[05:44]
요구사항도 잘 정리되어 있으며,
[05:46]
Brave 검색을 실행하기 위한 에이전트 도구도
[05:48]
잘 구성되어 있고, Brave API 키가 포함된
[05:50]
ENV 예제 파일도 있어서 모든 것이
[05:52]
완벽하게 구성되어 있네요. 정말 멋집니다.
[05:55]
여러분도 보시다시피,
[05:56]
현재 이것은 매우 기본적인 예제이고
[05:58]
Archon이 초기 단계임에도 불구하고,
[06:01]
이 에이전트가 얼마나 기본적인지 보여주고 싶었습니다.
[06:03]
다양한 종류의 특화된 서브에이전트를 만들 수 있어서
[06:05]
Windsurf나 Cursor가
[06:07]
필요할 때 호출할 수 있습니다.
[06:09]
이러한 AI 코더들에게 이것들을 언제 사용해야 하는지
[06:11]
알려주는 방법은 바로 이 도구들의 설명에 있습니다.
[06:14]
예를 들어, Pantic AI와 LGraph 에이전트를
[06:17]
구축하고 싶을 때는
[06:19]
Archon을 사용하라고 알려줄 수 있고,
[06:21]
이를 위한 도구들도 제공됩니다.
[06:24]
따라서 Cursor 설정이나
[06:25]
Windsurf 규칙을 직접 수정할 필요 없이
[06:27]
모든 설명들이 가이드 역할을 합니다.
[06:29]
MCP 서버에 모든 것이 정의되어 있기 때문입니다.
[06:32]
새로운 혁신이 있을 때마다
[06:34]
항상 많은 질문들이 따르기 마련입니다.
[06:36]
여러분도 몇 가지 궁금한 점이 있으실 것 같은데,
[06:39]
이 영상에서 다루지 않는 내용이 있다면
[06:40]
댓글로 남겨주시기 바랍니다.
[06:42]
지금은 제가 예상하는
[06:44]
주요 질문들에 대해
[06:45]
몇 가지 답변을 드리도록 하겠습니다.
[06:47]
첫 번째 큰 질문은
[06:49]
왜 Windsurf나 Cursor같은 AI 코더에
[06:52]
내장된 문서 기능을 사용하지 않느냐는 것입니다.
[06:54]
오른쪽 하단에서 @pantic-ai를
[06:56]
입력하면
[06:58]
바로 Pantic AI 문서를 사용할 수 있고,
[07:01]
Windsurf가 다음 요청을 수행하는 데
[07:03]
이 문서를 사용할 것입니다.
[07:05]
@lgraph를 입력하면
[07:07]
LGraph 문서도 바로 사용할 수 있죠.
[07:09]
그렇다면 왜 이것을 사용하지 않고
[07:11]
Archon을 사용하여 Pantic AI와
[07:13]
LGraph 에이전트를 코딩하는 걸까요?
[07:15]
여기에는 두 가지 주요 이유가 있습니다.
[07:18]
첫째, Archon의 에이전트 흐름에서
[07:20]
Reasoner 모델과 내장된 시스템 프롬프트를 통해
[07:22]
우리가 에이전트를 분할한 다양한 파일들에 대해
[07:25]
매우 일관된 출력을 얻을 수 있고,
[07:27]
스크립트 자체의 구조도 일관성 있게 유지됩니다.
[07:29]
Windsurf나 Cursor에서는
[07:31]
규칙을 편집할 수는 있지만,
[07:33]
시스템 프롬프트 이상의 것이 필요합니다.
[07:35]
Archon의 전체적인 흐름이 이 일관된 코드를 만들어내죠.
[07:38]
저는 이 점이 매우 마음에 들고,
[07:39]
Windsurf에서는
[07:40]
이러한 일관성을 얻을 수 없습니다.
[07:42]
매번 매우 다른 모습의 코드가 생성되며,
[07:44]
이로 인해 더 많은 오류가 발생합니다.
[07:47]
Windsurf는 매번 전혀 다른 모습의
[07:49]
코드를 생성하고,
[07:50]
이로 인해 더 많은 오류가 발생하며,
[07:52]
이것이 바로 두 번째 큰 문제입니다.
[07:53]
또한...
[07:55]
Archon을 사용하면 코드의 품질이 항상 더 좋습니다.
[07:57]
현재는 Archon이 초기 단계라 비슷한 수준일 수 있지만,
[07:59]
지금은 Archon이 초기 단계이기 때문에
[08:02]
하지만 앞으로 발전시켜 나가면서
[08:04]
자체 피드백 루프와 문제를 여러 섹션으로
[08:06]
나눌 수 있는 기능을 추가하고
[08:08]
문제를 작은 단계로 분할하여
[08:10]
처리하면, 일반적인 코딩 도구보다
[08:12]
훨씬 더 견고한 결과물을 만들 수 있습니다.
[08:14]
일반 코더가 한 번에 모든 코드를 생성하고
[08:17]
거기서부터 개선하는 것보다
[08:19]
한 번에 생성하고 점진적으로
[08:21]
개선하는 방식보다 훨씬 더 나은
[08:22]
시작점을 제공할 것입니다.
[08:24]
Archon을 사용하면
[08:25]
문서를 더 잘 활용할 수 있어서
[08:27]
더욱 효과적입니다.
[08:29]
이것이 우리가 Archon을 사용하는 이유입니다.
[08:31]
그리고 두 번째 중요한 질문은
[08:33]
여기서 왜 Thread ID를 생성하느냐 입니다.
[08:35]
MCP 서버는 원래 상태를 유지하지 않고
[08:37]
stateless하도록 설계되어 있죠.
[08:39]
도구를 호출하면 응답을 주고
[08:41]
모든 것을 잊어버리는 방식인데,
[08:43]
이 경우 Archon은 Windsurf처럼
[08:45]
대화 기록을 유지하는
[08:48]
하위 에이전트 도구입니다.
[08:51]
여기 Archon의 Lang 그래프가 있는데
[08:53]
이 모든 것이 상태를 유지합니다.
[08:56]
우리는 범위를 생성하는
[08:58]
Reasoner가 있고 이것이 코더 에이전트로 이동하며
[09:00]
human-in-the-loop 방식으로
[09:02]
에이전트에게 반복 작업을
[09:03]
요청할 수 있습니다.
[09:05]
따라서 대화를 유지하기 위해
[09:07]
식별자를 사용해야 합니다.
[09:10]
이 Windsurf 대화가 Archon의
[09:12]
어떤 실행과 매핑되는지 알아야 하기 때문입니다.
[09:15]
그래서 이 Thread ID를 생성하고
[09:17]
LLM이 이 도구에
[09:19]
Thread ID를 전달하는 것을 기억해야 합니다.
[09:22]
LLM이 이 Thread ID를 추적해야 하는데
[09:24]
이것이 약간 불편하긴 하지만
[09:26]
LLM에 의존해야 하는 부분이지만
[09:28]
놀랍게도 지금까지 100% 잘 작동했습니다.
[09:30]
그래서 향후 반복 작업에서
[09:32]
에이전트를 개선하기 위해
[09:34]
Archon을 다시 사용하라고 지시하면
[09:36]
동일한 Thread ID를 사용하여
[09:38]
실행을 이어갈 수 있습니다.
[09:41]
human-in-the-loop 피드백 루프의
[09:44]
다음 단계로 진행되는 거죠.
[09:46]
이것이 Thread ID를 사용하는 방식입니다.
[09:47]
MCP에 약간 강제로 적용된 면이 있지만
[09:49]
잘 작동하고 있습니다.
[09:52]
네, 저는 지금
[09:54]
혁신의 최전선에 있습니다.
[09:55]
이런 것을 본 적이 없어서
[09:57]
모든 것을 진행하면서
[09:59]
알아가고 있는 중이지만
[10:01]
정말 멋진 결과를 얻고 있습니다.
[10:02]
이제 MCP에 대해 더 자세히 살펴보고
[10:04]
Archon에 대해 이야기하면서
[10:06]
어떻게 모든 것을 통합했는지 보여드리겠습니다.
[10:08]
오늘 영상의 스폰서는 Fish Audio입니다.
[10:10]
매우 인상적인 음성 복제와
[10:12]
음성 변환 솔루션으로
[10:14]
개발자, 마케터, 콘텐츠 크리에이터들의
[10:16]
AI 오디오 제작 방식을 변화시키고 있습니다.
[10:18]
Fish Audio는 단순한 음성-텍스트 변환 도구가 아닙니다.
[10:22]
최첨단 실시간
[10:24]
음성-음성 변환 모델로
[10:26]
최고 수준의 현실감을 제공합니다.
[10:28]
빠르게 데모를 보여드리겠습니다.
[10:31]
자, Fish Audio 홈페이지에서
[10:33]
내 보이스 라이브러리의 커스텀 보이스로 가서
[10:35]
새로운 보이스를 만들면 됩니다.
[10:36]
여기서 몇 분 만에 자신의 목소리를 복제할 수 있죠.
[10:38]
커버 이미지를 추가하고
[10:40]
이름과 설명을 입력한 다음
[10:42]
하단에 샘플 클립을
[10:43]
추가하면 AI가 이를 모방하게 됩니다. 권장 시간은
[10:45]
약 30초이며, UI에서 직접
[10:47]
녹음도 할 수 있어서
[10:49]
정말 사용하기 쉽습니다.
[10:51]
'생성하기'를 클릭하세요. 제 경우에는
[10:52]
이미 만들어둔 커스텀 보이스를
[10:54]
사용하도록 하겠습니다. 여기에
[10:56]
제가 준비한 재미있는 샘플 문구를 붙여넣을 건데요
[10:58]
"Archon이 최고의 AI 에이전트
[10:59]
빌더다"라고 했습니다. 프로팁을 하나 드리자면
[11:02]
발음을 더 정확하게 하기 위해
[11:03]
철자를 약간 수정할 수 있습니다.
[11:05]
이 모든 기능은
[11:06]
API를 통해서도 사용 가능해서
[11:08]
프로그래밍 방식으로도 활용할 수 있죠.
[11:10]
속도와 볼륨도 조절할 수 있고
[11:12]
생성 버튼을 누르면 몇 초 안에
[11:13]
오디오 클립이 생성되어 재생됩니다.
[11:15]
"Archon은 역대 최고의 AI 에이전트
[11:18]
빌더이며, 앞으로도 그럴 것입니다.
[11:21]
믿기지 않으시나요? 왜 안 믿으시죠?"
[11:23]
Fish Audio는 모든 것을 할 수 있도록 설계되었습니다.
[11:26]
유튜브 보이스오버, 음성 에이전트,
[11:28]
프로젝트에 다양한 언어 추가 등
[11:30]
무엇이든 가능하죠. 동시에
[11:33]
매우 저렴한 가격으로, 기존 음성 플랫폼인
[11:36]
Eleven Labs보다 50% 저렴하고 2배
[11:38]
더 빠릅니다. Eleven Labs는 오랫동안
[11:40]
대표적인 음성 플랫폼이었지만
[11:41]
제게는 항상 너무 비싸다고 느껴졌거든요.
[11:44]
Fish Audio가 AI 음성 플랫폼의
[11:46]
새로운 강자가 될 것 같습니다.
[11:49]
Fish Audio를 테스트하면서 받은 인상은
[11:51]
정말 놀라웠다는 말로는 부족합니다. 여러분도
[11:53]
AI 음성 게임을 한 단계 업그레이드하고
[11:55]
프로젝트를 진정으로
[11:57]
프로페셔널하게 만들고 싶다면 fish.audio로
[11:59]
가서 관대한 무료 체험을
[12:01]
신청하고 AI 음성 복제의 마법을
[12:03]
직접 경험해보세요. 2분도 안 되는
[12:05]
시간 안에 바로 시도해볼 수 있으니
[12:07]
꼭 한번 사용해보시고 얼마나 잘 작동하는지
[12:09]
확인해보세요. 설명란에
[12:11]
Fish Audio 링크도 남겨두었습니다.
[12:13]
제가 Archon을 MCP 서브에이전트로
[12:15]
어떻게 구축했는지 보여드리기 전에
[12:17]
가장 중요한 것은 MCP가 무엇이고
[12:20]
Archon이 무엇이며, 이 둘을 어떻게
[12:22]
결합해서 특화된 에이전트를
[12:24]
만들 수 있는지에 대한
[12:26]
맥락을 이해하는 것입니다. 우선 MCP는
[12:29]
Claude가 최근 몇 달 전에 개발한
[12:31]
프로토콜로, 대규모 언어 모델과
[12:33]
도구 사용을 표준화하기 위한 것입니다.
[12:36]
자세한 내용이 궁금하시다면
[12:37]
전체 문서를 읽어보실 수 있는데
[12:39]
기본적으로 서버를 생성해서
[12:41]
특정 서비스의 API 엔드포인트에
[12:44]
접근할 수 있게 하는 방식입니다.
[12:47]
GitHub, Google Drive, Discord 등
[12:48]
어떤 서비스든 가능하죠. 이 서버는
[12:51]
대규모 언어 모델에 노출되어
[12:54]
LLM에 도구들을 동적으로 제공합니다.
[12:56]
따라서 GitHub용 MCP 서버를 실행하고
[12:59]
이를 Windsurf나 Claude Desktop 등의
[13:02]
LLM에 제공하면
[13:04]
자동으로 연동이 됩니다.
[13:06]
이제 LLM이 GitHub 저장소에서
[13:09]
여러분을 대신해서 작업을 할 수 있게 되었죠.
[13:11]
이런 서버들을 빠르게 구축하고
[13:13]
LLM에게 즉시 접근 권한을 부여할 수 있다는 게
[13:15]
정말 멋진 것 같아요.
[13:17]
Brave 검색용 서버도 있고,
[13:19]
Google Drive용, SQL 데이터베이스용,
[13:21]
이 모든 서버들이 있죠.
[13:23]
이제 Archon처럼 커뮤니티에서
[13:25]
만들어진 서드파티 서버들이
[13:26]
많이 있습니다.
[13:28]
JetBrains나 Stripe, AWS S3 같은 것들도 있고,
[13:31]
아래로 스크롤을 내려보면
[13:33]
Discord, DeepSeek, R1 등이 있습니다.
[13:36]
이 모든 서버들을 지금 당장 다운로드할 수 있고
[13:38]
전부 오픈소스입니다.
[13:40]
제 컴퓨터에서 직접 실행하거나
[13:42]
클라우드의 API 엔드포인트를 참조할 수 있고
[13:44]
그러면 바로
[13:45]
제가 LLM을 실행하는 어디에서든
[13:47]
이 모든 도구들을 사용할 수 있게 됩니다.
[13:48]
이것이 바로 우리가 Archon으로 하고 있는 일이죠.
[13:52]
Archon은 AI 메타 에이전트로,
[13:54]
Pantic AI와 LangGraph를 사용해 다른 에이전트들을 만드는 에이전트입니다.
[13:56]
최근에 개발을 시작했고
[13:58]
제 채널에는 아직 한 개의 영상만 있지만,
[13:59]
기본적으로 저는 Pantic AI와
[14:01]
LangGraph를 가르치기 위한 이니셔티브를 개발하고 있고,
[14:04]
궁극적으로는
[14:06]
강력한 서브에이전트로 발전시켜
[14:09]
AI 코더들이 Pantic AI와 LangGraph로
[14:12]
에이전트를 아주 깔끔하게 만들 수 있도록 할 계획입니다.
[14:15]
그래서 지금 MCP로
[14:17]
이것을 도구로 만들어서
[14:20]
방금 Windsurf에서 본 것처럼
[14:22]
LLM에게 제공하고 있습니다.
[14:24]
기본적으로 Windsurf에서 실행되는 Claude 3.5 Sonnet이
[14:27]
도구로 Archon을 가지고 있는 거죠.
[14:31]
이것이 Archon으로 에이전트를 코딩하는
[14:33]
전체 워크플로우를 정의하는 LangGraph 그래프입니다.
[14:36]
시작점에 Reasoner가 있어서
[14:37]
에이전트 구축을 위한 범위와
[14:39]
상위 수준의 추론을 정의하고,
[14:41]
이것이 실제 코드를 생성하는
[14:43]
더 빠른 코더 에이전트로 전달됩니다.
[14:45]
그리고 여기에 피드백 루프가 있어서
[14:47]
사용자로부터 입력을 받아
[14:49]
에이전트를 반복적으로 개선하고
[14:51]
최종 응답과
[14:52]
에이전트 실행 지침을 마지막에 제공합니다.
[14:54]
그리고 이 전체 워크플로우를 패키지로 만들어서
[14:57]
AI 코더들에게 도구로 제공하는 겁니다.
[15:00]
이것이 Archon을 MCP 서브에이전트로 사용하는 힘입니다.
[15:03]
이제 이런 맥락을 이해했으니
[15:06]
실제로 MCP 서버를 어떻게 설정하고
[15:08]
Archon과 모든 것을 연결했는지 살펴보겠습니다.
[15:11]
이것이 우리의 Archon MCP 서버를 위한
[15:13]
파이썬 스크립트입니다.
[15:15]
지금은 개략적으로 설명하고,
[15:18]
나중에 제 채널에서
[15:20]
파이썬 MCP 서버를
[15:21]
처음부터 만드는 방법을 자세히 다룰 수도 있습니다.
[15:23]
문서 링크도
[15:25]
설명란에 있을 텐데,
[15:27]
직접 살펴보고 싶으시다면
[15:29]
파이썬과 자바스크립트
[15:30]
두 가지 모두를 위한 서버를 만들 수 있습니다.
[15:33]
전체적으로 보면, MCP 파이썬 SDK와 함께
[15:36]
FastAPI를 사용하고 있고, 첫 번째 도구는
[15:38]
스레드 ID를 생성하는 것입니다.
[15:40]
Archon이 대화 기록을 관리하는 데
[15:43]
이것이 필요하기 때문이죠.
[15:45]
그리고 두 번째 도구는
[15:47]
실제로 Archon을 호출하는 것입니다.
[15:49]
이것은 제가 만든 Archon API 엔드포인트를 통해
[15:52]
구현되는데, 이는 Archon 버전 3의
[15:54]
새로운 기능입니다. 우리는
[15:56]
제가 만든 Fast API 엔드포인트를 사용하고 있는데
[16:00]
이것은 Archon과 상호작용하는 방식이
[16:02]
제 채널의 이전 Archon 영상에서
[16:03]
Streamlit을 사용했던 방식과 매우 유사합니다
[16:06]
그리고 이전 영상에서 보여드렸던 Archon 그래프는
[16:10]
처음부터 완전히 구축하는 방법을
[16:11]
보여드렸는데, 이 부분은
[16:13]
완전히 동일하게 유지됩니다
[16:16]
변경한 것이 없고
[16:17]
단지 Fast API 엔드포인트로 모두 래핑했습니다
[16:20]
이것을 MCP 서버에서 호출하고 있죠
[16:23]
그래서 이는 매우 간단한 구현인데
[16:25]
Archon을 반드시
[16:27]
MCP 서버로 사용할 필요가 없습니다
[16:29]
저는 여러분에게 유연성을 제공하여
[16:32]
Streamlit에서 작업하거나
[16:34]
API 엔드포인트로 사용할 수 있고
[16:36]
다른 프론트엔드를 만들 수도 있습니다
[16:37]
반드시 MCP 서버로 사용할 필요는 없지만
[16:40]
MCP 서버로도 쉽게 사용할 수 있게 했습니다
[16:42]
실제로 README를 보시면
[16:44]
여기 미리보기를 열어보겠습니다
[16:47]
업데이트된 Archon 사용 설명서에서
[16:50]
MCP 서버 설정 없이도
[16:52]
실행하는 방법을 보여드립니다
[16:55]
Streamlit만으로도 가능하고
[16:58]
MCP로도 가능합니다
[16:59]
두 가지 방법 모두 다뤘고
[17:01]
README에 설명이 있어서
[17:03]
매우 쉽게 설정할 수 있습니다
[17:05]
여러분이 직접 시도해볼 수 있도록
[17:07]
Windsurf나 Cursor
[17:09]
또는 Streamlit 등에서 실행해볼 수 있습니다
[17:11]
그리고 다른 중요한 점은
[17:13]
MCP 서버에 대해 강조하고 싶은데
[17:15]
일반적으로 작동하는 방식에서
[17:18]
함수 정의 상단에 있는 독스트링은
[17:20]
매우 중요합니다
[17:22]
이는 Pantic AI와 LangChain의 Tools와 유사한데
[17:25]
이것들이 LLM에게 실제로 언제
[17:28]
그리고 어떻게 도구를 사용할지 알려줍니다
[17:31]
여기 보이는 이 정확한 문자열을
[17:34]
Windsurf로 돌아가서 보여드리겠습니다
[17:35]
보세요, 바로 여기 있습니다
[17:38]
함수의 정의에서
[17:41]
이 문자열이 실제로
[17:43]
Windsurf의 Claude 3.5 프롬프트에
[17:46]
포함되어 있어서
[17:48]
도구를 언제 어떻게
[17:49]
사용할지 이해할 수 있습니다
[17:52]
예를 들어, Claude에게
[17:55]
Archon을 실행하기 전에
[17:57]
AI 에이전트 구축을 시작할 때
[17:58]
스레드 ID를 생성해야 하고
[18:00]
시작이 아닌 경우에는
[18:02]
동일한 스레드 ID를 전달해야 한다고 알려줍니다
[18:04]
Archon이 대화를 관리하기 때문에
[18:07]
스레드 ID가 없으면
[18:09]
실행되지 않으므로 이 도구를 실행할 때
[18:11]
파라미터로 전달해야 합니다
[18:14]
이것이 MCP 서버의 전체적인 모습이고
[18:17]
그래프는 변경되지 않았으며 매우 간단한
[18:19]
Fast API 구현입니다
[18:21]
자세히 설명하지는 않겠습니다
[18:23]
그리고 제가 만든
[18:25]
스크립트도 있는데
[18:26]
설명서에도 포함되어 있습니다
[18:29]
가상 환경을 완전히 설정해주고
[18:31]
Cursor나 Warp에 넣을 MCP 설정도 생성해줍니다
[18:35]
제 터미널을 보여드리겠습니다
[18:37]
터미널을 보여드리겠습니다.
[18:39]
여기 실행 중인 API 엔드포인트가 있는데
[18:40]
이것을 중지하고
[18:44]
명령어를 실행해보겠습니다.
[18:46]
Python setup-mcp.py를 실행하면
[18:49]
가상환경이 이미 생성되어 있어서
[18:51]
해당 단계는 건너뛰고
[18:53]
Cursor에 넣어야 할 설정을
[18:55]
보여줍니다. README에 관련 설명이 있고
[18:57]
또한 Windsurf나
[18:59]
MCP 설정에 넣을 JSON도 제공합니다.
[19:02]
Claude Desktop에서도 사용할 수 있죠.
[19:04]
이 스크립트를 실행하면
[19:07]
정확히 무엇을 해야 하는지 알 수 있습니다.
[19:09]
Archon MCP 설정을 최대한 간단하게 만들었습니다.
[19:12]
가능한 한 쉽게 만들었죠.
[19:14]
자, 이제 빠르게
[19:16]
실행 방법을 보여드리고
[19:17]
처음부터 에이전트를 만들어보겠습니다.
[19:19]
GitHub 저장소의 루트에 있는
[19:21]
README로 돌아가보면
[19:23]
설치 방법이 나와있습니다.
[19:25]
예전 방식대로
[19:27]
Streamlit으로 직접 상호작용하고
[19:29]
MCP 서버로 사용하지 않을 경우에도
[19:31]
여전히 지원됩니다.
[19:32]
레포지토리를 클론하고
[19:34]
가상환경을 활성화한 다음
[19:35]
필요한 패키지들을
[19:37]
설치하면 됩니다.
[19:38]
MCP를 통해 사용한다면
[19:40]
앞서 보여드린 설정 스크립트를 실행하면
[19:42]
가상환경을 설정하고
[19:44]
MCP 설정을 제공받을 수 있습니다.
[19:46]
그리고 가상환경을
[19:48]
활성화해야 합니다.
[19:49]
Windsurf와 Cursor 모두에 대한 설명이 있어서
[19:52]
설정 스크립트가 제공하는 설정을
[19:55]
적용할 수 있고
[19:56]
다른 도구를 사용하더라도
[19:58]
Claude Desktop이나
[20:00]
MCP를 지원하는 다른 AI 코더를 사용할 때
[20:02]
이와 비슷하게 적용할 수 있습니다.
[20:04]
환경 변수 설정도
[20:05]
동일하게 유지됩니다.
[20:07]
Python 스크립트를 실행해서
[20:09]
Pantic AI 문서를 가져오고
[20:11]
Supabase 지식 베이스에
[20:13]
RAG를 위해 저장하는 것도 동일합니다.
[20:16]
MCP 서버를 사용할 때는 API 엔드포인트를 실행해서
[20:18]
Archon을 API로 노출시켜야 하고
[20:21]
아니면 Streamlit을 직접 사용할 수 있는데
[20:23]
이는 그래프와 직접 상호작용하므로
[20:26]
MCP처럼 API를 거치지 않습니다.
[20:28]
이게 실행 방법의 전부입니다.
[20:30]
모든 명령어를 지금
[20:31]
실행하진 않겠습니다.
[20:33]
이미 충분히 명확할 거라 생각하고
[20:35]
제 머신에서 이미 실행 중이니
[20:37]
이제 실제로
[20:38]
테스트를 해보겠습니다.
[20:41]
전체 Archon 그래프를 Windsurf를 위한
[20:44]
도구로 패키징했고,
[20:47]
매우 중요한 점을 다시 강조하자면
[20:50]
이것은 정말 개발의 초기 단계입니다.
[20:52]
앞으로 더 많은 노드를 추가하고
[20:54]
시스템 프롬프트를 개선하고
[20:56]
도구 라이브러리도 추가할 예정입니다.
[20:58]
더 견고하게 만들기 위한
[20:59]
많은 아이디어가 있지만
[21:01]
이것도 좋은 시작점입니다.
[21:03]
이제 처음부터 에이전트를 만들고
[21:05]
개선하고 테스트해보겠습니다.
[21:07]
시작 부분에서 다뤘던 Brave 에이전트를
[21:09]
가져와서
[21:10]
마지막 데모에서 완성해보는 것이
[21:12]
적절할 것 같습니다. 처음부터 만들지만
[21:14]
같은 프롬프트를 사용할 거예요.
[21:16]
여기 Archon을 위한 API 엔드포인트가
[21:18]
준비되어 있고, 그래프 서비스도 있습니다.
[21:20]
로그를 보여드리겠습니다.
[21:22]
에이전트를 만들 때
[21:23]
실시간으로 진행되는 걸 보실 수 있죠.
[21:25]
동일한 프롬프트를 붙여넣겠습니다.
[21:27]
'Archon을 사용해 AI 에이전트를 만들어줘'
[21:30]
먼저 스레드 ID를 받고, Archon에게 도움을 요청하네요.
[21:32]
정말 흥미로운 부분인데요,
[21:34]
이건 마치 한 에이전트가
[21:36]
다른 에이전트에게 도움을 요청하는 거죠.
[21:38]
자신에게 없는 전문성이 필요할 때
[21:40]
Reasoner 모델 03 미니로 시작해서
[21:42]
스코프를 생성하는데,
[21:44]
여기에는 Pantic AI 문서도 포함됩니다.
[21:46]
코더가 봐야 할 페이지들을 찾아내죠.
[21:48]
자, 이제 Pantic AI 코더가
[21:50]
RAG를 수행해서 모든 내용을 가져옵니다.
[21:53]
AI 에이전트를 만들기 위한 작업이죠.
[21:56]
Pantic AI 문서를 기반으로 하고
[21:58]
나중에는 Lang Graph로도
[22:00]
확장할 예정이지만,
[22:02]
일단 Archon으로 간단하게 시작해보죠.
[22:04]
이제 최종 응답을 생성하고 있고
[22:06]
Windsurf가 기다리는 중입니다.
[22:08]
잠시 후면 화면이 깜빡이면서
[22:10]
네, 바로 이렇게 됩니다.
[22:12]
Archon에서 최종 응답을 받았고
[22:13]
이제 이 파일들을
[22:15]
IDE에 구현할 거예요.
[22:18]
requirements.txt부터 시작해보죠.
[22:20]
좋네요. Pantic AI와 httpx,
[22:22]
필요한 의존성만 정확히 있습니다.
[22:24]
그리고 여기 우리의 에이전트가 있네요.
[22:27]
음, 꽤 괜찮아 보이는데
[22:29]
모델이 None으로 되어 있는 게
[22:31]
마음에 들지 않네요.
[22:33]
전반적으로는 괜찮아요.
[22:34]
Brave 검색 도구도 잘 되어 있고,
[22:38]
그리고 여기 env 예제 파일에
[22:40]
Brave API 키도 잘 설정되어 있네요.
[22:42]
LLM을 구현해야 할 것 같지만
[22:44]
나머지는 다 좋아 보입니다.
[22:45]
이 변경사항들을 수락하고
[22:47]
이제 휴먼 인 더 루프를 사용할 건데요,
[22:49]
잠깐 제 위치를 옮겨서
[22:53]
제가 타이핑하는 걸 보여드리겠습니다.
[22:54]
제가 발견한 첫 번째 큰 문제를
[22:57]
수정하도록 요청할 건데요,
[22:59]
모델이 None으로 되어 있어서
[23:02]
Archon에게 Brave 검색 에이전트의 모델을 수정하도록 요청하겠습니다.
[23:07]
현재 모델이 None인데
[23:10]
GPT-4.0을 사용하도록 하죠.
[23:14]
이제 휴먼 인 더 루프를 사용해서
[23:16]
Archon을 호출할 건데요,
[23:18]
동일한 스레드 ID를 사용합니다.
[23:20]
로그를 다시 보시면
[23:22]
바로 Pantic AI 코더로 넘어갔죠.
[23:26]
이번에는 Reasoner를 호출하지 않았는데
[23:28]
이미 그래프 실행 중이고
[23:30]
코더 에이전트와의 루프 안에 있기 때문이죠.
[23:32]
Archon에서 응답을 받았고
[23:34]
모델을 수정했습니다.
[23:36]
OpenAI GPT-4로 변경됐는데
[23:38]
GPT-4.0이 되어야 할 것 같아서
[23:43]
바로 여기서 수정하겠습니다.
[23:45]
아직은 약간의 수작업이 필요하네요.
[23:46]
아직은 사람의 개입이 필요합니다. 특히
[23:48]
Archon이 아직 초기 구현 단계이기 때문인데요
[23:51]
하지만 정말 멋진 점은
[23:52]
Archon을 사용해서
[23:54]
에이전트를 업데이트하는 것을 볼 수 있었죠
[23:56]
물론 이것은
[23:58]
Windsurf가 할 수 있는 일이지만
[24:00]
여기서는 단순한 예시로
[24:01]
Archon과 함께 사람이 개입하는
[24:02]
과정을 보여주고 싶었습니다. 그래서 이제
[24:04]
잘 진행되고 있는데요, 제가 할 일은
[24:06]
카메라 밖에서 이것을 테스트하고
[24:08]
발생한 작은 문제들을 수정한 다음
[24:10]
Streamlit 인터페이스로 실행해보겠습니다
[24:11]
몇 가지를 수정하고 돌아왔는데
[24:13]
작동하는 상태로 만드는 데
[24:15]
많은 시간이 걸리지 않았습니다
[24:17]
제가 빠르게 만든 Streamlit 인터페이스로
[24:19]
에이전트가 완벽하게 작동하는 것을
[24:21]
보여드리겠습니다. 주로 수정한 부분은
[24:23]
환경 변수 설정 외에도
[24:25]
EnV를 생성하고
[24:27]
에이전트에서 사용하지 않았던 부분과
[24:30]
Brave API와 상호작용하기 위한
[24:33]
올바른 URL과 매개변수가 없었습니다
[24:35]
결국 Pantic AI나
[24:36]
Langraph 관련 문제가 아니라
[24:39]
Brave API와 관련된
[24:40]
환각 현상이었는데, 이는 제가 문서를
[24:42]
제공하지 않았기 때문이죠
[24:45]
그래서 Archon을 탓할 수는 없습니다
[24:47]
Windsurf에서도 똑같은 일이 발생했을 거예요
[24:49]
이런 이유로 도구 라이브러리가
[24:52]
매우 유용할 것 같습니다
[24:53]
미리 만들어진 Brave 도구가
[24:55]
Pantic AI 에이전트에서
[24:56]
바로 사용될 수 있도록 말이죠
[24:59]
이것만 수정하고 나머지는 그대로 두었습니다
[25:01]
그리고 Streamlit 인터페이스를 만들어서
[25:04]
방금 실행해봤는데
[25:06]
streamlit run 명령어로
[25:08]
streamlit ui.py를 실행했고
[25:09]
프로젝트 의존성에도 추가했습니다
[25:11]
그리고 이제 우리는
[25:14]
채팅 인터페이스를 가지게 되었죠
[25:16]
이 에이전트는 거의 완전히
[25:18]
Archon이 생성했고, Windsurf는
[25:20]
도움을 요청하는 정도만 했습니다
[25:23]
이제 질문을 해볼 수 있는데요
[25:24]
'일론 머스크의 순자산이 얼마인가요?' 같은
[25:27]
LLM이 학습 데이터 기준으로는
[25:30]
알 수 없는 질문을 해보겠습니다
[25:32]
웹 검색 도구를 활용할 텐데
[25:34]
보시는 것처럼 로그에서
[25:36]
Brave API에
[25:37]
순자산 검색 요청을 했고
[25:39]
4,000억 달러라는 결과가 나왔네요
[25:42]
정말 엄청난 금액이지만 정확한 답변입니다
[25:45]
이렇게 Archon 에이전트가 완벽하게 작동하고
[25:47]
앞으로도 계속 Archon을
[25:50]
MCP 서버로 발전시켜 나갈 예정이며
[25:52]
더 놀라운 기능들을 추가할 것입니다
[25:54]
점점 더 좋아질 거예요
[25:56]
이제 Archon이 AI IDE에
[25:58]
MCP 서버로 통합될 수 있게 되어
[26:01]
제가 선호하는 프레임워크로 다른 에이전트를
[26:05]
만들 수 있는 강력한 서브에이전트로
[26:07]
발전시킬 아이디어가 많습니다
[26:09]
에이전트 흐름을 자유롭게 실험할 수 있고
[26:12]
파일 생성과 편집의 물류적인 문제를
[26:14]
걱정하지 않아도 되는 것이
[26:16]
정말 좋습니다. AI 코더들이
[26:18]
이제 그 부분을 처리해주니까요
[26:20]
설명란에 링크된 GitHub 리드미를
[26:22]
확인해보시면 Archon의
[26:24]
향후 계획을 보실 수 있습니다
[26:26]
일부만 공개했지만
[26:28]
정말 많은 아이디어가 있어요
[26:29]
자체 피드백 루프나
[26:31]
에이전트 생성을 더 작은 단계로 나누거나
[26:34]
도구 라이브러리 등
[26:35]
정말 흥미진진한 아이디어들이 많습니다
[26:38]
여러분도 제안하고 싶은 것이 있거나
[26:40]
기여하고 싶으시다면 언제든 환영합니다
[26:42]
Archon은 커뮤니티 주도 프로젝트이니까요
[26:44]
이 영상이 도움이 되었고
[26:47]
AI 에이전트와 Archon의
[26:49]
더 많은 소식을 기대하신다면
[26:51]
좋아요와 구독 부탁드립니다
[26:53]
다음 영상에서 뵙겠습니다
[26:55]
감사합니다