[00:00]
오늘 여러분께 공식적으로
[00:02]
아콘(Archon)을 소개하게 되어 기쁩니다. 이것은 오픈소스
[00:05]
다른 AI 에이전트들을 실제로 만들어내는 AI 에이전트입니다.
[00:08]
제 채널에서 이미 일부 다뤘지만
[00:09]
아직 제대로 된 소개나
[00:11]
제가 가진 놀라운 아이디어들을 공유하지 않았습니다.
[00:14]
이것을 교육 도구로 사용할 뿐만 아니라
[00:16]
궁극적으로는
[00:17]
다른 에이전트들을 자동으로 생성하는
[00:19]
거대한 AI 에이전트로 발전시킬 계획입니다.
[00:22]
필요에 따라 다른 에이전트들을 만들어내는
[00:25]
이 모든 과정을 공개적으로 진행하고 있어서
[00:27]
여러분이 따라하며 배우고
[00:29]
원하신다면 참여하실 수 있습니다.
[00:31]
우리가 이것을 제대로 만든다면
[00:33]
아콘은 쉽게 가장 중요한
[00:36]
AI 에이전트 중 하나가 될 수 있습니다.
[00:38]
제 말씀을 들어보세요. 코딩은 현재
[00:40]
AI의 가장 크고 강력한 활용 사례입니다.
[00:43]
과대 선전이 아닙니다.
[00:44]
AI를 코딩에 활용하는 것은
[00:47]
현재 모든 사람들의 관심사이며
[00:49]
LLM을 개발하는 모든 기업들도 마찬가지입니다.
[00:51]
최근 출시된 모델들을 보세요.
[00:54]
Claude 3, Gemini 1.5, DeepSeek, R1, Qwen 2.5 Coder까지
[00:57]
모두 코딩에 초점을 맞추고 있죠.
[01:01]
저는 지금 이 분야에 완전히 빠져있습니다.
[01:03]
AI를 사용해 코드를 작성하는 앱을 만들 수 있는
[01:06]
엄청난 기회가 있기 때문이죠.
[01:09]
왜냐하면 이렇습니다.
[01:11]
Windsurf, Cursor, Kline과 같은
[01:13]
범용 AI 코더들은 많이 있지만
[01:16]
특정 프레임워크나
[01:18]
특정 문제를 정말 잘 해결할 수 있는
[01:20]
전문화된 AI 에이전트는 많지 않습니다.
[01:23]
Bolt나 Lovable같은 전문 도구들이
[01:25]
멋진 프론트엔드를 만들어내지만
[01:27]
다른 AI 에이전트를 만들고
[01:29]
실행하고 개선하는
[01:31]
AI 코딩 어시스턴트는 어떨까요?
[01:34]
이것이 필요한 이유는
[01:36]
AI 에이전트가 앞으로의
[01:39]
소프트웨어 분야를 지배할 것이
[01:41]
점점 더 명확해지고 있기 때문입니다.
[01:43]
필요할 때마다 특화된 에이전트를 만들어
[01:46]
모든 문제를 해결할 수 있다면
[01:48]
여러분이 세상을 지배하는 겁니다.
[01:50]
그래서 제가 아콘을 만들고 있습니다.
[01:52]
프론트엔드용 Bolt처럼 생각하시면 되지만
[01:54]
에이전트를 위한 것이고 더 많은 기능이 있습니다.
[01:57]
지금 데모를 보여드리고
[01:58]
이 프로젝트에 대한
[02:00]
제 대담한 비전도 공유하겠습니다.
[02:02]
아콘은 두 가지 방식으로 실행됩니다.
[02:04]
첫째는 전용 인터페이스가 있는
[02:06]
독립형 앱으로 나중에 보여드리겠습니다.
[02:08]
둘째는, 정말 흥미로운 부분인데
[02:10]
아콘을 AI 에이전트를 만드는 엔진으로
[02:13]
AI IDE 내에서 사용할 수 있습니다.
[02:16]
지금 Windsurf에서 보여드리는 것처럼
[02:18]
Cursor나 Kline에서도
[02:19]
똑같이 할 수 있습니다. 제 Windsurf에서는
[02:22]
Claude의 Model Context Protocol을 사용해
[02:24]
아콘을 Windsurf의 도구로 사용하고 있습니다.
[02:27]
일종의 하위 에이전트라고 생각하시면 됩니다.
[02:29]
Windsurf가 전문적인
[02:32]
에이전트 지능이 필요하다고 판단하면
[02:34]
아콘을 호출해 코드를 생성하고
[02:37]
그 코드는 Windsurf로 반환되어
[02:39]
개발 환경에 바로
[02:40]
구현됩니다.
[02:42]
정말 멋진 시스템이죠.
[02:44]
나중에 더 자세히 다룰
[02:45]
아콘의 인터페이스로 넘어가서
[02:48]
아콘 서비스가 실행 중인데
[02:49]
이것은 제 MCP 서버의 핵심이며
[02:52]
여기 MCP 탭에서는
[02:54]
각각의 코딩 어시스턴트에 대해
[02:56]
MCP에 필요한 정확한 설정과
[02:58]
모든 설정 방법을 보여줍니다
[03:01]
윈드서프, 커서, 클라인과 함께
[03:03]
아콘을 쉽게 시작할 수 있도록 했죠
[03:05]
자, 이제 윈드서프에서 아콘을 실행해보겠습니다
[03:08]
지금은 아주 기본적인 에이전트를 만들어볼 건데
[03:10]
나중에 전용 영상에서
[03:11]
더 복잡한 사용 사례를 만들어보겠습니다
[03:13]
아콘을 발전시키면서 더 이해하기 쉬워질 거예요
[03:16]
자, 여기서는 브레이브 API를 사용해서
[03:17]
웹을 검색하는 간단한 AI 에이전트를 만들어보겠습니다
[03:20]
바로 윈드서프가 아콘 도구를 사용하기 시작하는 것을
[03:22]
볼 수 있고, 지금 실제로
[03:24]
이 도구 호출로
[03:26]
우리의 에이전트를 실행하고 있습니다
[03:29]
곧 로그를 확인할 수 있을 텐데
[03:31]
아콘 UI에서도
[03:33]
MCP 서버로 요청을 보낼 때
[03:34]
로그를 볼 수 있습니다
[03:37]
여기서 정말 강조하고 싶은 점은
[03:40]
윈드서프 같은 범용 AI 코더를 사용할 수 있다는 건데
[03:41]
판틱 AI 문서나
[03:44]
랭그래프 문서를 참조해서
[03:45]
윈드서프가 이러한 에이전트를
[03:47]
아콘과 동일한 프레임워크로 만들 수 있습니다
[03:49]
하지만 이런 AI IDE들이
[03:51]
너무 범용적이라서
[03:53]
제가 원하는 만큼 잘 작동하지 않습니다
[03:57]
그래서 우리는 아콘같이 특화된
[03:59]
도구가 필요한 거죠
[04:00]
우리가 제공하는 지침을 통해
[04:02]
이러한 프레임워크들을 다룰 줄 아는
[04:05]
더 나은 문서 검색과
[04:07]
RAG 검색을 통해
[04:09]
이러한 특화 기능을 구현할
[04:11]
많은 기회가 있습니다
[04:12]
자, 여기 아콘에서 결과가 돌아왔고
[04:14]
윈드서프에게 생성할 파일들을 알려줬습니다
[04:17]
이제 제 개발 환경에
[04:19]
아콘이 지시한 정확한 구조대로
[04:21]
모든 것을 만들고 있네요
[04:22]
여기 이 에이전트는
[04:25]
완벽한 판틱 AI 코드를 생성하고 있습니다
[04:26]
지금은 간단히 넘어가지만
[04:28]
이 코드는 정말 완벽해 보이네요
[04:30]
그리고 예제 파일도 생성하는데
[04:32]
환경 변수나 필요한 요구사항들도
[04:34]
고려하고 있죠
[04:36]
또한 에이전트를 시작하는 데 도움이 되는
[04:37]
리드미 파일도 생성합니다
[04:39]
정말 훌륭하죠
[04:40]
우리는 다시 돌아가서
[04:42]
에이전트를 반복 개선할 수도 있고
[04:44]
그러면 아콘이 다시 호출되어
[04:46]
에이전트 코드를 업데이트합니다
[04:48]
아콘이 윈드서프에 보내는 모든 업데이트는
[04:50]
필요한 파일들을 수정하므로
[04:52]
처음부터 다시 작성할 필요가 없죠
[04:53]
AI IDE가 필요한 파일을 수정할 겁니다
[04:56]
이 모든 과정 동안
[04:57]
아콘 UI에서 로그를 볼 수 있는데
[05:00]
방금 아콘을 사용했을 때의 로그들이 여기 있고
[05:02]
앞으로의 모든 반복 작업도
[05:04]
실시간으로 여기에 표시됩니다
[05:05]
MCP 서버에서 일어나는
[05:07]
모든 것을 쉽게 추적할 수 있죠
[05:09]
아콘을 AI IDE와 함께 사용하는 것은
[05:11]
정말 좋은 조합입니다
[05:14]
AI IDE와 함께 아콘을 사용하면 좋은 이유는
[05:18]
또 다른 VS Code 포크를 만들지 않고
[05:20]
Archon을 특화된 엔진으로 만드는 데 집중하고 있습니다.
[05:23]
현재는 Pantic AI와 LangGraph와 함께 작동하지만
[05:25]
앞으로는 Crew AI, LlamaIndex, AutoGen과 같은
[05:27]
모든 프레임워크를 구현하고 싶습니다
[05:29]
이를 통해 Archon이
[05:30]
AI 에이전트 생성기가 될 수 있도록 말이죠
[05:33]
정말 멋진 기능들이 있지만
[05:35]
Archon과 AI IDE 모두에서 LLM 호출을 사용해야 하기 때문에
[05:38]
약간의 추가 크레딧이 필요합니다
[05:40]
하지만 이를 통해 많은 환각 현상을 막을 수 있고
[05:42]
실제로 에이전트를 더 빠르게 생성할 수 있다면
[05:45]
결국에는 많은 크레딧을 절약할 수 있습니다
[05:47]
가장 중요한 것은 우리가 에이전트를
[05:49]
올바르게 개발하기를 원한다는 것이고
[05:51]
빠르게 하고 싶다는 것입니다
[05:52]
지금부터 Archon을
[05:53]
시작하는 방법을 보여드리고
[05:56]
제가 가진 미친 아이디어들도 공유하고 싶습니다
[05:58]
현재의 초기 단계에서
[05:59]
Archon을 진정한 괴물로 만들어
[06:02]
AI 에이전트를 즉석에서 생성하고
[06:05]
코드를 만들 뿐만 아니라
[06:07]
자율적으로 반복 개선하고
[06:08]
에이전트를 직접 실행할 수 있게 만드는 것이
[06:11]
우리의 꿈입니다
[06:13]
여기 Archon의 GitHub 리포지토리가 있습니다
[06:15]
비디오 설명에 링크를 첨부해 두었고
[06:17]
제 채널에서 이미 처음부터 Archon을
[06:20]
어떻게 만들었는지 다뤘습니다
[06:22]
그 영상 링크도 여기 있습니다
[06:24]
기본적으로 Archon은
[06:26]
제가 가장 좋아하는 두 프레임워크인
[06:28]
Pantic AI와 LangGraph를 결합하여
[06:30]
지능적인 에이전트 워크플로우를 만듭니다
[06:32]
이는 일반적인 AI 코딩 지원보다
[06:35]
훨씬 더 뛰어난 에이전트를 만들 수 있습니다
[06:37]
저는 두 가지 이유로 Archon을 반복적으로 개발하고 있습니다
[06:39]
첫째, 공개적으로 개발하여 여러분이 기여하고
[06:43]
개발 과정을 따라올 수 있게 하고 싶습니다
[06:45]
둘째, 이를 교육 도구로 사용하여
[06:47]
Pantic AI와 LangGraph로 더 복잡한
[06:50]
에이전트를 만드는 방법을 보여주고 싶습니다
[06:52]
그래서 더 복잡한 것을 설명할 때
[06:53]
간단한 단계로 나누어 설명하고 싶고
[06:55]
Archon의 각 반복이 바로 그 단계들입니다
[06:57]
단순한 에이전트로 시작해서
[07:00]
더 강력한 에이전트 생성 흐름을 위해
[07:02]
LangGraph를 구현하고
[07:04]
버전 3에서는 MCP 지원을 추가했으며
[07:05]
최신 버전에서는 Archon을 관리하기 위한
[07:08]
대규모 Streamlit 인터페이스를 추가했습니다
[07:10]
제가 Pantic AI와 LangGraph에 특별히 집중하는 이유는
[07:12]
LangChain과 같은 다른 프레임워크들이
[07:14]
제가 생각하기에 '추상화의 함정'에 빠져있기 때문입니다
[07:17]
너무 많은 것을 구현하려다 보니
[07:18]
AI 에이전트를 만들 때 필요한
[07:20]
커스터마이징과 제어 능력을 잃어버립니다
[07:22]
하지만 Pantic AI와 LangGraph에서는
[07:24]
그런 문제를 느끼지 않습니다
[07:26]
물론 나중에는 다른 프레임워크들도
[07:29]
통합하고 싶습니다
[07:30]
자세한 내용은 나중에 설명드리겠지만
[07:32]
이것이 제가 이 프레임워크들에
[07:34]
집중하는 이유입니다
[07:36]
네, 여기에서 보시는 것처럼
[07:38]
정말 많은 내용이 있습니다
[07:40]
Archon의 비전과
[07:41]
미래 반복에 대해 더 자세히 설명드리겠습니다
[07:43]
다른 프레임워크들도 통합하고 싶지만
[07:46]
그것은 나중에 더 자세히 다루도록 하겠습니다
[07:48]
이것이 제가 이 프레임워크들에
[07:50]
집중하는 이유이고
[07:51]
네, 여기 보시다시피
[07:54]
여기에는 아콘(Archon)의 비전과
[07:55]
향후 발전 방향에 대해 많은 내용이 있습니다.
[07:58]
이에 대해서는 나중에 더 자세히 설명하겠지만,
[07:59]
실제 아콘을 시작하는 것에 관해서는
[08:01]
최대한 쉽게 만들었습니다.
[08:03]
리드미(README)를 조금 아래로 스크롤하면
[08:06]
도커(Docker)를 이용한 첫 번째 설치 옵션이 있는데,
[08:08]
단 세 개의 명령어로
[08:10]
실행할 수 있을 만큼 매우 간단합니다.
[08:12]
원하신다면 파이썬만으로도 설치가 가능한데,
[08:14]
이 경우 몇 가지 명령어가 더 필요합니다.
[08:17]
도커 방식을 추천하지만,
[08:18]
어떤 방식을 선택하더라도 스트림릿 인터페이스가
[08:21]
실행될 것입니다.
[08:22]
이 인터페이스는 아콘 설정의
[08:24]
모든 과정을 안내해 줄 것입니다.
[08:26]
환경 변수 설정부터 시작해서
[08:28]
MCP용 에이전트 서비스,
[08:31]
RAG를 위한 문서화 작업까지
[08:34]
하나씩 빠르게 진행할 수 있습니다.
[08:36]
정말 쉽게 시작할 수 있죠.
[08:37]
나중에 아콘 설치 방법에 대한
[08:39]
전용 영상을 만들 수도 있지만,
[08:41]
이 설명만으로도
[08:43]
충분히 따라하실 수 있을 거라 생각합니다.
[08:44]
실제로 많은 분들이
[08:46]
이미 성공적으로 설치를 완료하셨습니다.
[08:48]
도커나 순수 파이썬으로
[08:49]
아콘을 실행하면, 첫 번째 탭에서
[08:52]
시작 안내를 받을 수 있습니다.
[08:54]
이를 통해 아콘을 실행하는데
[08:56]
필요한 모든 것을 설정할 수 있습니다.
[08:58]
UI의 채팅 인터페이스나
[09:00]
앞서 보여드린 MCP 서버 모두
[09:03]
사용 가능합니다.
[09:05]
환경 변수 설정,
[09:06]
슈퍼베이스를 사용하는 데이터베이스,
[09:08]
현재는 Pantic AI를 사용하는
[09:11]
문서 크롤링 설정
[09:12]
(나중에는 다른 문서들도 추가할 예정),
[09:14]
그리고 MCP 설정까지
[09:16]
모든 과정을 안내해 드립니다.
[09:19]
각 탭은 완벽하게 작동하도록
[09:22]
많은 공을 들였습니다.
[09:24]
예를 들어, UI에서 직접
[09:25]
모든 환경 변수를 설정할 수 있어
[09:27]
.env 파일을 따로 만들 필요가 없습니다.
[09:28]
이는 데이터베이스 설정에도 도움이 됩니다.
[09:31]
문서 크롤링 전에
[09:33]
모든 설정이 제대로 되어있는지,
[09:35]
테이블이 준비되어 있는지 확인하고
[09:37]
RAG를 위한 모든 것을 생성합니다.
[09:39]
문서화 탭도 있는데,
[09:41]
지금은 보여드리지 않겠지만
[09:43]
매우 흥미로운 기능이 있습니다.
[09:45]
버튼 하나로
[09:46]
AI 파이썬 스크립트가 백그라운드에서 실행되어
[09:49]
Pantic AI 문서를 크롤링하고
[09:51]
각 페이지를 처리하는 과정을
[09:53]
실시간으로 업데이트해줍니다.
[09:55]
앞으로 더 많은 소스가 추가될 예정입니다.
[09:57]
또한 앞서 보여드린 에이전트 서비스에서는
[10:00]
MCP 서버의 로그를
[10:01]
모니터링할 수 있고,
[10:03]
Klein, Cursor, Windsurfr와 같은
[10:07]
AI IDE들의 설정 방법도 안내합니다.
[10:09]
도커로 설정하는 경우와
[10:12]
순수 파이썬으로 설정하는 경우
[10:14]
구성 방법이 다르며,
[10:16]
이러한 설정들은
[10:18]
운영체제와
[10:19]
MCP 서버 경로에 따라
[10:22]
동적으로 조정됩니다.
[10:24]
[10:27]
그리고 마지막 섹션이 있는데요,
[10:30]
여기서 좀 시간을 할애하고 싶습니다.
[10:31]
아콘 인터페이스에 전용 섹션을 만들었습니다.
[10:34]
이는 제가 구현하고자 하는
[10:38]
모든 향후 반복 작업을 상세히 설명하기 위해서입니다.
[10:41]
readme에서 간단히 설명하는 것이 아니라
[10:42]
아콘에 대한 제 큰 계획을
[10:44]
강조하고 싶었기 때문입니다.
[10:47]
그래서 모든 세부 사항을
[10:50]
자세히 설명하는 전용 페이지를 만들었습니다.
[10:53]
상세한 내용을 모두 담았죠.
[10:55]
제가 가진 비전을 보여주고
[10:57]
여러분들도 이에 동참하시길 바랍니다.
[10:59]
다음 버전 5에서
[11:02]
가장 먼저 구현하고 싶은 것은
[11:03]
멀티 에이전트 코딩 워크플로우입니다.
[11:06]
이게 무엇인지 설명드리자면,
[11:09]
여기 도표가 잘 보여주고 있는데요.
[11:11]
제가 방금 보여드린
[11:13]
기본 코딩 에이전트를
[11:15]
코드 생성의 각 부분을 전문으로 하는
[11:18]
하위 에이전트들로 나누고 싶습니다.
[11:20]
예를 들어, 하나는 프롬프트를 만들고
[11:22]
다른 하나는 에이전트용 도구를 정의하며
[11:24]
또 다른 하나는 데이터베이스 연결과
[11:26]
API 키 같은 의존성을 만듭니다.
[11:28]
그리고 에이전트 인스턴스를 생성하고
[11:30]
사용할 대규모 언어 모델을
[11:32]
정의하는 에이전트도 있습니다.
[11:34]
이렇게 하는 데는 두 가지 이유가 있는데요.
[11:36]
첫 번째로,
[11:38]
에이전틱 워크플로우에서
[11:41]
서로 다른 LLM이 문제의 각 부분을
[11:43]
해결하는 것이 매우 유용합니다.
[11:45]
지금 보시는 것처럼요.
[11:47]
그리고 이들이 모여서
[11:49]
사용자를 위한 최종 결과물을 만듭니다.
[11:51]
아콘은 교육 도구이기도 하므로
[11:53]
이는 AI 워크플로우의
[11:55]
이런 중요한 사용 사례를
[11:56]
실용적으로 보여줄 좋은 기회입니다.
[11:59]
두 번째 이유는,
[12:01]
LLM에 많은 지시를 줄 수 있다고 해서
[12:03]
시스템 프롬프트와 모든 도구가
[12:05]
컨텍스트 윈도우에 맞는다고 해서
[12:07]
그렇게 해야 하는 것은 아닙니다.
[12:08]
너무 많은 작업을 주면
[12:11]
LLM이 부담을 느낄 수 있기 때문입니다.
[12:13]
따라서 코더 에이전트를
[12:15]
여러 하위 에이전트로 분할하면
[12:18]
워크플로우의 각 부분이
[12:20]
전문화되어 처리되므로
[12:22]
더 나은 결과를
[12:24]
얻을 수 있습니다.
[12:26]
다른 프로젝트에서도 이런 워크플로우를
[12:28]
구현해봤는데 확실히
[12:31]
결과가 많이 개선되었습니다.
[12:32]
그래서 버전 5가 기대됩니다.
[12:34]
그리고 버전 6에서는
[12:36]
도구 라이브러리와 예제 통합을
[12:39]
개발하고 싶습니다.
[12:41]
미리 만들어진 도구와
[12:43]
예제 에이전트를 제공하여 아콘이 더 나은
[12:46]
에이전트를 만들 수 있도록 돕는 거죠.
[12:48]
도구 라이브러리가 있으면,
[12:49]
이건 아직 초기 구성이긴 하지만
[12:52]
구성이 이런 식으로 되어있어서
[12:53]
웹 검색이나 데이터베이스 쿼리 같은
[12:55]
모든 도구가 미리 정의되어 있고
[12:57]
이를 통해 아콘이 에이전트를 만들 때
[13:00]
이미 정의된 도구를
[13:02]
간단한 방식으로 사용할 수 있습니다.
[13:04]
그래서 아콘이 직접
[13:06]
도구를 처음부터 만들 필요가 없죠.
[13:08]
라이브러리에서 도구를 가져와서
[13:10]
코드에 바로 주입할 수 있기 때문에
[13:12]
이렇게 하면 우리는
[13:14]
도구 생성을 임의로 만들어내는 것에 대해
[13:16]
걱정할 필요가 없습니다
[13:18]
이미 수천 번 만들어진 도구라면
[13:19]
바로 사용할 수 있도록
[13:21]
준비해 두는 것이 좋겠죠
[13:23]
날씨 도구나 데이터베이스 쿼리와 같은
[13:25]
기능이 필요할 때마다 에이전트가 사용할 수 있도록 말이죠
[13:28]
예제 에이전트도 비슷한 개념입니다
[13:29]
에이전트의 구조를 처음부터 정의하는 대신
[13:32]
이미 만들어진 구조를 활용할 수 있습니다
[13:34]
Pantic AI 문서에서 볼 수 있는
[13:36]
날씨 에이전트 같은 예제를 참고해서
[13:38]
이를 기반 포인트로 사용할 수 있습니다
[13:41]
기본적인 Pantic AI 에이전트가 어떤 모습인지 보고
[13:44]
이를 기반으로 더 복잡한 사용 사례를
[13:46]
구축할 수 있습니다
[13:49]
Pantic AI로 만들고 싶은 어떤 경우에도
[13:51]
그리고 버전 7로 넘어가서
[13:53]
LangGraph 문서를 Archon의
[13:56]
지식 베이스에 포함시키고 싶습니다
[13:58]
이렇게 하면 Pantic AI 뿐만 아니라
[14:00]
더 많은 프레임워크를 다룰 수 있게 되죠
[14:03]
Archon이 더 많은 프레임워크와
[14:05]
작업할 수 있게 되는 것입니다
[14:07]
시작점으로 LangGraph를 추가하고
[14:10]
나중에는 Crew AI와 LlamaIndex도 추가하고 싶습니다
[14:13]
이것에 대해서는
[14:14]
다른 버전에서 더 자세히 설명하겠지만
[14:16]
본질적으로
[14:18]
Pantic AI만 하드코딩되어 있는 대신
[14:21]
다른 프레임워크들도 통합하여
[14:22]
사용자가 선택할 수 있게 하고
[14:24]
Archon이 어떤 프레임워크를 사용할지 결정하게 하며
[14:27]
더 나아가 지능적으로
[14:28]
구축하는 에이전트를 기반으로
[14:30]
Pantic AI만 사용할지
[14:32]
아니면 LangGraph와 Pantic AI를
[14:34]
함께 사용할지 결정하게 됩니다
[14:36]
그리고 다른 프레임워크가 추가되면
[14:38]
정확히 무엇을 구축하느냐에 따라
[14:40]
그것들을 대신 사용하기로 결정할 수도 있죠
[14:43]
이것이 LangGraph 에이전트의 예시입니다
[14:46]
Pantic AI만으로는 구축할 수 없는
[14:48]
더 복잡한 에이전트 워크플로우를 보여주죠
[14:49]
따라서 Archon의 기능에 LangGraph를 추가하면
[14:52]
더 많은 기능을 구현할 수 있고
[14:53]
더 복잡한 사용 사례를 만들 수 있게 됩니다
[14:55]
이는 실제 세계에서 중요한 문제를 해결하는
[14:58]
AI 에이전트에게 필요한 것이죠
[15:00]
우리를 위해 이런 문제들을 해결할 때
[15:01]
버전 8로 넘어가면
[15:03]
자체 피드백 루프를 통해
[15:05]
Archon 자체의 에이전트 흐름을 개선합니다
[15:08]
현재 Archon이 에이전트 코드를 생성하면
[15:10]
바로 사용자에게 피드백을 받지만
[15:12]
만약 자율적으로 반복 작업을
[15:14]
수행하게 하고 싶다면 어떨까요?
[15:16]
때로는 무엇을 개선해야 할지
[15:18]
사용자보다 더 잘 알 수 있고
[15:20]
환각 현상이 사소한 경우
[15:22]
LLM이 쉽게
[15:23]
스스로 수정할 수 있습니다
[15:26]
우리는 Archon 내에
[15:28]
이런 기능을 넣고 싶습니다
[15:30]
그리고 버전 9에서는 자체 에이전트
[15:33]
실행이 있는데
[15:34]
이것은 Archon의 가장 도전적인 부분 중 하나가 될 것이지만
[15:36]
정말 기대됩니다. 현재
[15:39]
AI 코딩 어시스턴트들, 범용 도구인
[15:42]
Warp, Cursor, Archon 같은 것들이
[15:45]
에이전트를 위한 코드를 작성하더라도
[15:47]
실제로 실행할 방법이 전혀 없고
[15:49]
RAG를 위한 데이터베이스를 자동으로 연결하거나
[15:51]
로컬 웹 검색을 위한 CRX 같은 다른 서비스를 설치할 수도 없죠
[15:53]
이런 기능들이 현재는 없습니다
[15:56]
그래서 이런 기능을 Archon에 추가하고 싶어요
[15:58]
Archon이 에이전트 코드를 생성하고
[16:00]
사용자로부터 모든 것이 괜찮다는
[16:02]
승인을 받은 후에
[16:03]
제가 채널에서 자주 다뤘던
[16:06]
로컬 AI 패키지를 사용해서
[16:08]
독립된 환경을 구축하려고 합니다
[16:10]
벡터 데이터베이스, SQL 데이터베이스
[16:12]
웹 검색 기능이 포함된
[16:15]
이 모든 기능들이
[16:16]
AI 에이전트가 바로 연결할 수 있도록
[16:18]
패키지로 준비될 거예요
[16:21]
에이전트를 컨테이너로 만들어서
[16:23]
다른 서비스들과 함께 Docker Compose 스택으로 구성하여
[16:25]
바로 실행할 수 있는 환경을 만들 겁니다
[16:27]
이렇게 되면 미래에
[16:29]
더 많은 가능성이 열리게 되죠
[16:30]
자동으로 테스트하고
[16:32]
에이전트를 실행할 수 있게 되면서
[16:34]
자율적인 개선이 가능해집니다
[16:36]
단순히 LLM이 출력된 코드를
[16:37]
분석하는 것을 넘어서
[16:40]
실제로 에이전트를 테스트하고
[16:42]
오류를 확인하면서 개선할 수 있게 됩니다
[16:44]
정말 기대되는 부분이에요
[16:47]
그리고 앞서 언급했듯이
[16:48]
버전 10에서는
[16:50]
다중 프레임워크 지원을 구현하고 싶습니다
[16:53]
Pantic AI, LGraph, Langchain, Egno
[16:56]
Crew AI와 LlamaIndex 같은
[16:57]
주요 프레임워크들이 있는데
[16:59]
제가 Pantic AI와 Langraph를 선호하지만
[17:02]
사람들마다 선호도가 다르고
[17:03]
각각의 프레임워크를 사용하는
[17:05]
이유가 있죠
[17:06]
예를 들어 Crew AI처럼 더 단순한 것을 원할 수도 있고
[17:08]
그래서 Archon이 이 모든 것을 지원하게 하고 싶습니다
[17:11]
그 다음 버전 11에서는 자율적인
[17:13]
프레임워크 학습 프로세스를 추가할 건데
[17:15]
기본적으로 Archon이 좋은 에이전트를 만들거나
[17:18]
좋은 도구를 정의하고 테스트하여 검증할 때마다
[17:20]
이를 예제와 도구 라이브러리에
[17:23]
추가하여
[17:25]
더 나은 예제와 도구를
[17:27]
지속적으로 스스로 개선할 수 있게 하고 싶습니다
[17:29]
이런 자체 개선 프로세스는 정말 멋질 것 같아요
[17:32]
심지어
[17:33]
시스템 프롬프트도
[17:35]
스스로 조정할 수 있게 될 수도 있죠
[17:37]
시간이 지나면서 어떤 방식이
[17:39]
에이전트를 가장 잘 작동하게 하는지 파악하면서요
[17:42]
이것들은 꽤 먼 미래의 계획이에요
[17:44]
마지막 몇 가지는
[17:45]
확실히 더 고급 기능들이지만
[17:47]
이 수준까지 도달하고 싶습니다
[17:49]
아마도 더 많은 버전이 나올 것 같아요
[17:51]
벌써 버전 13까지 계획했지만
[17:53]
Archon을 더욱 발전시킬 수 있는
[17:55]
방법이 정말 많이 있습니다
[17:57]
버전 12에서는 고급 RAG 기술을 다룰 건데
[17:59]
현재 지식 베이스를 탐색하는
[18:01]
RAG 방식이 꽤 잘 작동하지만
[18:03]
아직 많은 고급 기술들을 구현하지 않았어요
[18:05]
하이브리드 검색이나
[18:07]
재순위화, 쿼리 분해
[18:09]
또는 계층적 청킹과 같은
[18:12]
더 나은 청킹 방식 등
[18:13]
많은 것들이 있죠
[18:15]
우리가 여기서 할 수 있는
[18:16]
아콘이 다양한 프레임워크의 문서를
[18:19]
더 잘 이해하고 활용할 수 있도록
[18:21]
기회가 많이 있습니다. 그리고 현재로서는
[18:23]
마지막 버전으로 계획하고 있는 것이
[18:25]
MCP 에이전트 마켓플레이스입니다. 이를 통해
[18:27]
아콘으로 만든 에이전트들을
[18:29]
마켓플레이스에 게시할 수 있게 되어
[18:32]
다른 사람들이 MCP 마켓플레이스에서
[18:34]
하위 에이전트로 가져와서 사용할 수 있게 됩니다
[18:37]
AI IDE나 다른 MCP 클라이언트에서
[18:40]
아콘이 MCP 클라이언트가 사용할 수 있는 도구이자 하위 에이전트인 것처럼
[18:43]
아콘이 생성한 에이전트들도 하위 에이전트로
[18:46]
사용될 수 있습니다. 여기서 매우 메타적이 되는데
[18:49]
모든 세부사항을 다루고 싶지는 않지만
[18:52]
정말 흥미로운 부분입니다
[18:54]
이와 관련된 모든 것을
[18:55]
설명하고 싶지는 않지만
[18:57]
아콘이 만드는 모든 것을
[18:59]
다른 사람들이 재사용할 수 있고
[19:01]
MCP 에이전트 마켓플레이스와 같은 곳에서
[19:04]
공유할 수 있다는 점이 정말 멋집니다
[19:06]
향후 통합 계획에 대해서는
[19:08]
정확히 어떤 버전에 포함될지는 모르지만
[19:10]
다양한 서비스들과
[19:12]
통합하고 싶습니다. 우선 LangSmith부터 시작해서
[19:13]
이것은 LangChain의 추적 및
[19:15]
모니터링 플랫폼인데
[19:17]
에이전트 워크플로우에서 무슨 일이
[19:19]
일어나고 있는지 자세히 볼 수 있게 해줍니다
[19:21]
아콘과 아콘이 만드는 에이전트들을 더 잘 디버깅할 수 있게 도와줄 것이므로
[19:24]
언젠가는 반드시 LangSmith와
[19:26]
통합하고 싶습니다
[19:27]
LangFuse 같은 것도 사용할 수 있을 것 같고
[19:29]
여러 가지 선택지가 있지만
[19:31]
아콘의 핵심 컴포넌트로
[19:32]
LangGraph를 사용하고 있기 때문에
[19:33]
LangSmith가 가장 적합해 보입니다
[19:36]
그리고 MCP 마켓플레이스도 있는데
[19:38]
이것은 버전 13과는 다른 것입니다
[19:40]
아콘 에이전트를 MCP 마켓플레이스에
[19:43]
게시하는 것이 아니라
[19:45]
실제로 아콘을 MCP 마켓플레이스에
[19:48]
올려서 사람들이 직접
[19:50]
MCP 서버로 사용할 수 있게 하는 것입니다
[19:52]
GitHub 레포지토리를 통해 직접
[19:54]
설정할 필요 없이
[19:56]
모든 것을 실행할 수 있게 되죠
[19:58]
이것도 정말 멋질 것 같습니다
[19:59]
그리고 Pydantic AI 외에도
[20:01]
다른 프레임워크들도 있는데
[20:03]
이는 버전 10에서 다룰 예정입니다
[20:06]
이것은 어디에 들어갈지 알고 있지만
[20:07]
다른 것들은 아직
[20:08]
정확히 어느 버전에 넣을지
[20:10]
모르는 상태입니다
[20:12]
그리고 Supabase 외에도
[20:14]
다른 벡터 데이터베이스들이 있는데
[20:16]
여기 나열된 많은 인기 있는 옵션들이
[20:18]
있습니다. 사람들이
[20:20]
각각의 벡터 데이터베이스를 다른 용도로
[20:22]
선호하기 때문에, 예를 들어 Weaviate는
[20:24]
Supabase보다 빠르고
[20:26]
자체 호스팅도 가능합니다. Pinecone은 서버리스로 실행되고
[20:28]
오픈소스는 아니지만 매우 빠르죠
[20:30]
각각 사용하는 이유가 있기 때문에
[20:31]
이것들과의 통합도
[20:33]
좋을 것 같습니다. 마지막으로 Local AI
[20:35]
패키지와의 통합을 계획하고 있는데
[20:37]
특히 버전 9의 자체 에이전트 실행에서
[20:39]
사용할 예정입니다
[20:41]
이것도 어디에 들어갈지 알고 있는데
[20:43]
제가 심혈을 기울여 개발한
[20:45]
Local AI 패키지와 아콘을
[20:47]
연결하는 것이 정말
[20:49]
멋질 것 같습니다. 이것이 바로
[20:52]
향후 통합 계획과 아콘의
[20:54]
향후 반복의 모든 것입니다. 정말
[20:57]
흥미진진한 계획들이 많고
[20:59]
만약 이것에 대해 흥분되지 않는다면
[21:01]
뭐라고 말씀드려야 할지 모르겠네요. 저는
[21:03]
현재의 아콘과 앞으로 발전할
[21:06]
모습에 대해 정말 기대가 큽니다
[21:08]
우리가 함께 만들어나갈
[21:10]
이것이 바로 아콘이고
[21:12]
제가 가진 멋진 계획들을
[21:14]
간단히 요약한 것입니다. 여러분도
[21:16]
이 여정에 동참하시길 바랍니다
[21:18]
관심 있으시다면 기여도 하시고
[21:20]
직접 사용해보시면서
[21:22]
기능도 제안해주세요. 마지막으로
[21:24]
말씀드리고 싶은 것은
[21:25]
아콘이 제 채널에서 추구하는 것의
[21:27]
완벽한 예시라는 점입니다. 저는
[21:30]
강력하고 실용적이며 쉽게 대체될 수 없는
[21:32]
복잡한 에이전트를 만들되
[21:35]
이를 여러분이 쉽게 이해할 수 있도록
[21:37]
복잡한 주제를
[21:39]
쉽게 설명하려고 노력합니다
[21:40]
그래서 AI 에이전트 구축 방법을
[21:42]
가장 잘 가르쳐드릴 수 있죠. 이 콘텐츠가
[21:45]
도움이 되셨고
[21:46]
앞으로의 아콘과 AI 에이전트에
[21:48]
기대가 되신다면
[21:50]
좋아요와 구독 부탁드립니다
[21:52]
다음 영상에서 뵙겠습니다