[00:00]
현재 AI 분야에서 일어나고 있는
[00:01]
모든 일들 중에서 Claude의 Model Context Protocol이
[00:04]
가장 큰 주목을 받고 있는데,
[00:07]
여기엔 그만한 이유가 있습니다.
[00:09]
이것은 Anthropic이 개발한 놀라운 프로토콜로,
[00:11]
LLM이 우리의 서비스를 활용할 수 있도록
[00:13]
도구를 제공하는 방식을 표준화했습니다.
[00:16]
현재 많은 사람들이 이것을 다루고 있고
[00:19]
좋은 콘텐츠를 만들고 있지만
[00:20]
제가 본 대부분의 영상들은
[00:22]
너무 세부적인 내용을 다루거나
[00:24]
MCP로 뭔가를 만드는 것에 집중하거나
[00:26]
아니면 예시 없이 높은 수준에서만 설명하고 있습니다.
[00:29]
제가 알기로 여러분에게 필요한 것은
[00:31]
지금 제가 다룰
[00:32]
MCP에 대한 포괄적인 개요입니다.
[00:35]
높은 수준에서 알아야 할 모든 것,
[00:38]
MCP가 무엇이고 왜 중요한지,
[00:40]
그리고 오늘부터 어떻게 사용할 수 있는지,
[00:42]
생산성을 높이고 더 나은 AI 에이전트를
[00:44]
만드는 데 활용하는 방법을 알려드리겠습니다.
[00:46]
MCP의 특별한 점은 다른 AI 기술들과 달리
[00:49]
쉽게 사라지지 않을 것이라는 점입니다.
[00:51]
최근에 우리는 많은 '스파크'들을 보았습니다.
[00:54]
제가 말하는 스파크란 Mani,
[00:57]
OpenAI Operator, DeepSeek R1 같은 것들로
[00:59]
처음에는 엄청난 화제를 모았지만
[01:01]
몇 주 만에 그 열기가 식어버렸죠.
[01:03]
하지만 MCP는 이와 다릅니다.
[01:05]
이는 마치 꺼지지 않는 장작불과 같아서
[01:08]
점점 더 뜨거워질 것입니다.
[01:10]
게다가 이것은 새로운 것도 아닙니다.
[01:11]
작년 11월부터 있었던 것인데
[01:13]
시간이 지날수록 사람들이
[01:15]
이것이 얼마나 유용하고
[01:17]
강력한지 깨닫고 있는 것뿐입니다.
[01:19]
이것이 바로 단순한 과대광고가 아니라는 증거이며
[01:22]
제가 최근 이것을 배우는 데
[01:24]
많은 시간을 투자하고 있는 이유입니다.
[01:26]
여러분도 같은 선택을 하시길 추천합니다.
[01:28]
간단히 말해서, MCP를 사용하여
[01:31]
LLM과 AI 에이전트를 강화하면
[01:34]
그렇지 않은 사람들에 비해
[01:36]
압도적인 이점을 가질 수 있고
[01:37]
이는 쉽게 사라지지 않을 것입니다.
[01:40]
지금부터 여러분이 알아야 할
[01:42]
모든 것을 설명해드리겠습니다.
[01:44]
영상 후반부에서는
[01:45]
n8n과 파이썬 에이전트에 MCP를 통합하는 방법도
[01:48]
다운로드 가능한 템플릿과 함께 보여드리겠습니다.
[01:50]
짧은 영상에 많은 가치를 담았으니
[01:52]
바로 시작해보겠습니다.
[01:53]
여기 MCP의 공식 문서가 있습니다.
[01:56]
설명 란에 링크를 남겨두었고
[01:59]
이를 참고하면서
[02:00]
핵심 개념들을
[02:02]
하나씩 살펴보도록 하겠습니다.
[02:04]
문서의 소개 페이지에는
[02:06]
홈페이지에
[02:08]
MCP가 무엇인지에 대한
[02:10]
간단하고 명확한 정의가 나와있습니다.
[02:13]
MCP는 AI 애플리케이션을 위한 USB-C 포트와 같다고
[02:16]
생각하면 됩니다. USB로 우리의 기기들을
[02:19]
표준화된 방식으로 주변기기에 연결하듯이
[02:21]
MCP는 우리의 도구들을 매우 쉽게
[02:24]
표준화된 방식으로 LLM에 연결합니다.
[02:27]
또 다른 비유로는 최근 자주 듣는
[02:30]
MCP는 AI 에이전트를 위한
[02:31]
API 엔드포인트와 같다는 설명이 있습니다.
[02:34]
기업들이 자신들의 백엔드 서비스를 다른 애플리케이션에
[02:38]
노출시키기 위해 API를 만드는 것처럼
[02:40]
MCP는 AI 에이전트에게
[02:42]
도구들을 노출시키는 방법입니다.
[02:45]
매우 명확하고 간단하죠.
[02:48]
MCP 문서가 마음에 드는 이유입니다.
[02:51]
꽤 포괄적이긴 하지만
[02:53]
많은 부분이 빠져있고 일부 다이어그램은
[02:55]
좀 더 명확하게 설명할 수 있었을 것 같습니다.
[02:56]
하지만 저는 이것이 오히려 좋습니다.
[02:59]
저와 다른 교육자들이 나서서
[03:01]
여러분의 이해를 도울 수 있기 때문이죠.
[03:03]
그래서 지금부터 시작하겠습니다.
[03:04]
단순히 MCP가 무엇인지 설명하는 것이 아니라
[03:06]
왜 유용한지도 함께 설명해드리겠습니다.
[03:09]
이해를 돕기 위해
[03:11]
다이어그램도 준비했는데요.
[03:13]
제가 특별히 여러분을 위해 준비한
[03:15]
첫 번째 다이어그램은 MCP 이전의
[03:17]
AI 에이전트의 모습을 보여줍니다.
[03:20]
결국 MCP가 무엇이고
[03:22]
왜 유용한지 설명하는 가장 좋은 방법은
[03:25]
MCP가 없었을 때 우리가
[03:27]
어떤 어려움을 겪었는지 보여주는 것이니까요.
[03:29]
여기 AI 에이전트가 있습니다.
[03:32]
이것은 Langchain AI, Crew AI, n8n으로 만들 수 있는데
[03:35]
어떤 것을 사용하든 상관없습니다.
[03:37]
결국 AI 에이전트에서는
[03:39]
AI 에이전트에게 제공되는 도구 함수들을 만들어야 하거든요.
[03:42]
파일을 만드는 함수,
[03:44]
Git 커밋을 만들거나 데이터베이스의
[03:47]
테이블을 나열하는 함수 등을 만들고
[03:48]
문서화를 통해 AI 에이전트에게
[03:51]
각 도구를 언제 어떻게 사용할지 알려줍니다.
[03:54]
이를 통해 대화를 통해
[03:56]
우리를 대신해 이러한 작업을 수행할 수 있죠.
[03:58]
이것이 바로 AI 에이전트를
[04:01]
단순한 챗봇이나 워크플로우가 아닌
[04:03]
진정한 AI 에이전트로 만드는 것입니다.
[04:06]
우리가 말하는 것을 바탕으로
[04:07]
이 파일을 업데이트하고 Git에 푸시하고
[04:10]
Supabase의 레코드를 업데이트하는 등
[04:12]
작업을 추론할 수 있습니다. 하지만
[04:14]
다른 AI 에이전트에서 이러한 도구를
[04:17]
재사용하려고 할 때 문제가 발생합니다.
[04:19]
만약 제가 Langchain AI로 시작했다가
[04:20]
n8n으로 다른 에이전트를 만들고 싶거나
[04:23]
또는 Claude Desktop이나
[04:25]
Windsurf 같은 AI IDE에서
[04:26]
이 도구들을 사용하고 싶다면
[04:30]
개별 함수로 만든 이 모든 도구들을
[04:32]
재사용하는 것이 사실상 불가능합니다.
[04:35]
결국 많은 기능을
[04:37]
다시 작성해야 하고,
[04:39]
여러 사람들 간에 공유할 때는
[04:41]
상황이 더 나빠집니다.
[04:44]
이걸 어떻게 깔끔한 패키지로 만들어서
[04:45]
다른 사람에게 전달하여
[04:47]
그들이 어떤 프레임워크를 사용하든
[04:49]
AI 에이전트와 함께 사용할 수 있을까요?
[04:51]
그래서 결국 자신을 위해
[04:54]
중복된 코드를 많이 개발하거나
[04:55]
여러 사람들이 개별적으로
[04:58]
매우 유사한 도구들을
[05:00]
계속해서 다시 만들게 됩니다.
[05:02]
이것이 바로 우리에게
[05:04]
표준화가 필요한 이유입니다.
[05:07]
개별 서비스를 위한 모든 도구를
[05:09]
다른 사람들과 공유하고
[05:12]
우리가 직접 재사용할 수 있도록
[05:14]
깔끔하게 패키지화하는 방법이 필요합니다.
[05:16]
이것이 바로 MCP가 제공하는 것입니다.
[05:18]
표준화된 방식으로 만들어진
[05:20]
모든 깔끔한 패키지들로
[05:23]
'이 도구들을 어떻게 가져와서
[05:25]
더 많은 사용 사례에 적용할까'라는
[05:27]
고민을 할 필요가 없어졌습니다.
[05:29]
같은 코드를 계속해서
[05:31]
다시 만들 필요가 없는 거죠.
[05:34]
이제 두 번째 다이어그램을 보면
[05:36]
AI 에이전트가 MCP를 사용하도록
[05:37]
업그레이드되면 이제는
[05:40]
개별 도구와 함수를 일일이 정의할 필요 없이
[05:43]
MCP 서버가 제공하는 서비스들을
[05:45]
통해 AI 에이전트와 통신하며
[05:49]
모든 도구들을 사용할 수 있게 됩니다.
[05:51]
이러한 방식으로 우리가
[05:53]
n8n으로 에이전트를 만들든,
[05:54]
Cursor를 사용하든, Pantic AI로 개발하든
[05:57]
상관없이 동일한 방식으로
[05:58]
이러한 서버들을 활용할 수 있습니다.
[06:00]
왜냐하면 MCP 서버들이
[06:03]
도구들을 표준화하는 중간자 역할을 하기 때문입니다.
[06:06]
에이전트에게 도구를 제공하는 방식이 표준화되고
[06:08]
내부적으로는 모든 것이 동일하게 작동합니다.
[06:10]
예를 들어 Supabase 서비스의 경우
[06:12]
MCP를 통해 동일한 도구들을 가지고 있지만
[06:16]
MCP 프로토콜을 통해 이러한 Supabase
[06:18]
도구들이 AI 에이전트에게
[06:20]
전달됩니다. 이 과정을 통해
[06:22]
에이전트는 어떤 Supabase
[06:24]
도구들이 사용 가능한지 알 수 있고
[06:27]
AI 에이전트가 도구를 사용하는 방식은
[06:30]
내부적으로 완전히 동일합니다.
[06:32]
따라서 Model Context Protocol에는
[06:34]
혁신적으로 새로운 것이 없습니다.
[06:37]
도구를 사용하는 방식을 바꾸는 것이 아니라
[06:39]
도구를 쉽게 재사용하고
[06:41]
깔끔하게 패키징하는 것입니다.
[06:43]
예를 들어 첫 번째
[06:45]
에이전트가 Pantic AI로 만들어졌다면
[06:48]
이러한 MCP 서버들을 Cursor에서도
[06:50]
포함시킬 수 있고, 두 번째 호스트에서도
[06:52]
동일한 방식으로 이 서버들을
[06:54]
사용할 수 있습니다. 별도의
[06:56]
서버 인스턴스가 있겠지만
[06:58]
내부적으로는 정확히 같은 코드를
[07:00]
사용하므로 중복이 없고
[07:02]
서버나 도구들을 다시 만들 필요가 없으며
[07:04]
내부적으로는 모두 동일하게
[07:06]
같은 서비스에서 제공되는 도구들을 사용합니다.
[07:09]
저는 '동일하다'는 표현을 자주 쓰는데
[07:11]
이는 표준화의 중요한
[07:13]
부분이기 때문입니다.
[07:16]
이제 제 얼굴을 다시
[07:17]
화면에 보여드리는 이유는
[07:19]
앞서 언급했던 매우 중요한 점을
[07:20]
다시 강조하고 싶기 때문입니다.
[07:23]
MCP에서도 AI 에이전트들은 내부적으로
[07:26]
도구를 정확히 같은 방식으로 사용한다는 점입니다.
[07:28]
결국 이 서버들이 제공하는
[07:31]
도구들은 단순히 LLM에 대한
[07:33]
프롬프트의 일부로 제공되기 때문입니다.
[07:35]
에이전트는 도구를 사용하기로 결정하고
[07:37]
도구 호출을 실행하기 위한
[07:39]
특정 출력을 생성합니다.
[07:42]
많은 사람들이 가지고 있는 큰 오해는
[07:45]
MCP가 이전에는 없었던
[07:47]
혁신적인 LLM 기능을
[07:50]
제공한다는 것인데
[07:51]
이는 전혀 사실이 아닙니다.
[07:54]
우리는 항상 LLM에서 사용할 수 있는
[07:56]
이러한 도구들에 접근할 수 있었고
[07:59]
MCP는 단지 이를 표준화했을 뿐입니다.
[08:02]
우리가 계속 얘기했듯이
[08:04]
더 접근하기 쉽고
[08:07]
다른 사람들과 공유할 수 있는
[08:09]
도구 패키지를 만들기 쉽게 했습니다.
[08:11]
여전히 매우 강력하지만, 완전히 새로운
[08:13]
차원의 기능을 제공하는 기술은
[08:16]
아니라는 점을 말씀드립니다.
[08:18]
이러한 주의사항을 말씀드린 후
[08:20]
이제 MCP 서버들과 그 활용처에 대해
[08:22]
MCP 문서로 돌아가서, 예시 클라이언트를 보시면
[08:25]
이런 목록이 있는데
[08:27]
완벽한 목록인지는 모르겠지만
[08:29]
정말 많은 앱들이
[08:31]
모델 컨텍스트 프로토콜을 지원하고 있습니다.
[08:33]
Klein, Rine, WindSurf, Cursor와 같은 AI IDE들이 있고
[08:38]
Claude Desktop 같은 앱들도 있으며
[08:40]
n8n도 있고, 프레임워크로는
[08:41]
Pantic AI, Crew AI, LangChain 등이 있습니다.
[08:44]
요즘은 모든 것이 MCP를 지원하는 것 같은데
[08:47]
이것이 매우 중요한 이슈가 되고 있기 때문이죠.
[08:48]
도구 표준화가 핵심인데
[08:51]
이것이 이 모든 클라이언트들이
[08:53]
지원하는 주요 기능입니다.
[08:55]
MCP에는 리소스, 프롬프트, 샘플링, 루트와 같은
[08:57]
다른 흥미로운 기능들도 있는데
[09:00]
리소스를 예로 들면
[09:02]
간단히 보여드리자면
[09:03]
LLM에 실시간으로 업데이트되는
[09:05]
데이터를 노출시킬 수 있습니다.
[09:07]
파일이나 데이터베이스 레코드 같은 것들이죠.
[09:10]
MCP를 통해 LLM과 프롬프트 템플릿을 공유할 수 있고
[09:13]
샘플링을 통해
[09:15]
LLM으로부터 완성된 결과를 도구로 요청할 수 있습니다.
[09:18]
정말 멋진 기능인데
[09:20]
이러한 다양한 기능들을 보면
[09:22]
대부분의 클라이언트들이
[09:24]
아직 완전히 지원하지는 않습니다.
[09:26]
이것들은 아직
[09:28]
실험적이고 개발 중인 단계에 있죠.
[09:29]
그래서 현재는 도구 표준화에
[09:31]
큰 초점이 맞춰져 있는 것입니다.
[09:34]
앞으로 주목해볼 만한 가치가 있는데
[09:36]
Anthropic과 오픈소스 커뮤니티에 의해
[09:38]
이러한 기능들이 더 발전될 것이기 때문입니다.
[09:40]
하지만 지금은 네,
[09:42]
도구에만 집중하고 있습니다.
[09:44]
이것이 클라이언트 부분이고,
[09:45]
나중에 파이썬으로 커스텀 클라이언트를 만드는 법을 보여드리겠지만
[09:47]
이제 재미있는 부분, 이미 사용 가능한
[09:49]
서버들을 살펴보겠습니다.
[09:52]
파일 시스템이나 구글 드라이브 같은 것들을 다룰 수 있고
[09:54]
또한 Claude Desktop에서
[09:56]
이 모든 것을 설정하는 방법도 보여드리겠습니다.
[09:58]
하지만 먼저 공식 MCP GitHub 저장소를 보여드리고 싶은데
[10:03]
지금 바로 사용할 수 있는 서버들의 목록이 있습니다.
[10:06]
Anthropic이 개발한 공식 서버들이 있고
[10:07]
공식 통합도 있는데
[10:10]
이 회사들이 자체적으로 MCP 서버를 만들어서
[10:12]
그들의 서비스를 사용할 수 있게 했고
[10:15]
커뮤니티가 만든 것들도 있습니다.
[10:17]
정말 놀라운 것은
[10:19]
MCP 서버로 이미 사용할 수 있는
[10:22]
서비스의 수가 굉장히 많다는 것입니다.
[10:24]
물론 원하는 것이 없다면
[10:27]
직접 만들 수도 있습니다.
[10:29]
예를 들어 Brave 검색 같은 것이 있는데
[10:31]
많은 LLM들이 이미 웹 검색 기능을 가지고 있죠.
[10:33]
ChatGPT 같은 경우가 그렇지만, Claude나
[10:36]
로컬 LLM들은 그렇지 않습니다.
[10:39]
이때 이것을 서버로 사용할 수 있고
[10:41]
Redis 데이터베이스나
[10:43]
Supabase의 Postgres 데이터베이스를 관리하는
[10:45]
서버를 가질 수 있습니다.
[10:47]
그리고 이러한 공식 통합으로
[10:49]
정말 많은 훌륭한 회사들이
[10:51]
MCP 통합을 위해 열심히 노력하고 있습니다.
[10:54]
예를 들어 Browserbase는 웹 크롤링과 스크래핑을 위한
[10:57]
헤드리스 브라우저 서비스를 제공하고
[10:59]
Stage라는 플랫폼도 있습니다.
[11:02]
스테이지핸드라는 플랫폼을 위한 MCP
[11:04]
서버가 있어서, 자연어로
[11:05]
AI 에이전트가 웹사이트를 크롤링하고
[11:08]
특정 정보를 추출할 수 있죠.
[11:11]
정말 놀라운 기능이에요. 그리고
[11:13]
예를 들어 RAG를 위한 Quadrant가 있는데
[11:15]
사용자 지정 RAG 도구를 구현할 필요 없이
[11:16]
Quadrant MCP를 사용하면 됩니다.
[11:19]
이러한 각각의 MCP 서버들은
[11:21]
JavaScript나 Python으로 구축되어 있어서
[11:22]
구축 방식에 따라
[11:25]
서로 다른 서비스로
[11:27]
실행하게 됩니다. 예를 들어
[11:29]
Brave 검색 MCP 서버는
[11:31]
Docker나 NPX로 실행할 수 있어요.
[11:34]
Docker Desktop을 설치하거나
[11:36]
Node.js를 설치해서
[11:38]
NPX 명령어를 사용할 수 있습니다.
[11:40]
다른 MCP 서버들 중에는
[11:43]
Chroma 벡터 데이터베이스 MCP 서버처럼
[11:45]
Python으로 만들어진 것도 있는데
[11:47]
이건 uvicorn으로 실행합니다.
[11:50]
Python이 설치되어 있다면
[11:52]
pip install uvicorn으로 설치해서 실행할 수 있죠.
[11:54]
이 모든 설치 방법들은
[11:56]
Claude Desktop에서의 설정 방법도 알려주고
[11:58]
이 설명을 바탕으로 n8n이나
[12:01]
Windsurf, Cursor 같은 다른 도구에서도
[12:03]
설정할 수 있어요. 항상 표준적이고
[12:06]
약간의 조정만 하면 됩니다.
[12:08]
Claude Desktop에서는
[12:09]
이런 서버들을 설정할 때
[12:12]
좌측 상단의 파일 메뉴를 클릭하고
[12:14]
설정으로 들어가서
[12:17]
개발자 탭으로 가면
[12:20]
여기서 설정을 편집할 수 있어요.
[12:21]
그러면 컴퓨터에서
[12:23]
이 폴더가 열리고
[12:25]
VS Code 같은 도구로
[12:27]
설정 파일을 열 수 있습니다. 여기에
[12:29]
제가 설정한 모든 MCP 서버들의
[12:31]
JSON 설정이 있는데, GitHub 가이드를
[12:34]
따라 설정했습니다. 여기서
[12:36]
파일 시스템, 웹 검색을 위한 Brave,
[12:38]
순차적 사고가 가능한
[12:39]
멋진 기능이 있고, mzero나
[12:42]
Zep과 비슷한 기본적인
[12:43]
메모리 구현도 있어요.
[12:45]
그리고 앞서 보여드린
[12:47]
Stagehand가 있는데,
[12:48]
자연어로
[12:50]
에이전트가 웹사이트를 크롤링하게 할 수 있죠.
[12:52]
그리고 제가 유튜브 채널에서
[12:55]
작업 중인 AI 에이전트 빌더를 위한
[12:57]
Archon MCP 서버도 있습니다.
[12:59]
이렇게 제 MCP 서버들이 있고,
[13:01]
Claude Desktop으로 돌아와서
[13:04]
이 망치 아이콘을 클릭하면
[13:05]
사용 가능한 모든 도구를 볼 수 있어요.
[13:06]
Windsurf나 Cursor에서도 비슷하게 보입니다.
[13:09]
여기서 모든 도구들과
[13:10]
각각의 설명을 볼 수 있고
[13:13]
이제 이 도구들을 함께 사용해야 하는
[13:15]
질문을 할 수 있습니다.
[13:17]
도구들이 협력해서 작업을 수행하죠.
[13:19]
이 경우에는 먼저 Brave 검색으로
[13:21]
Pantic AI 문서를 검색하고
[13:24]
검색이 끝나고 Pantic AI 링크를 얻으면
[13:26]
Stagehand를 사용해야 합니다.
[13:28]
자, 이제 실행되네요.
[13:31]
해당 페이지를 방문해야 하므로
[13:33]
Stagehand의 탐색 도구를 사용합니다.
[13:34]
이제 처리가 되고
[13:36]
결과가 돌아올 거예요.
[13:38]
그럼 다음 도구를 사용해 볼까요
[13:40]
모델 페이지를 찾았고
[13:42]
이제 스크린샷을 찍고 싶어하네요, 정말 멋지죠
[13:44]
브라우저 기반의 Stagehand는 정말 훌륭해요
[13:46]
UI로 들어가서
[13:47]
세션으로 가서 실행 중인 세션을 확인할 수 있고
[13:50]
보시다시피 지금
[13:52]
Pantic AI 모델 페이지에 있습니다
[13:55]
Claude로 돌아가서
[13:58]
이에 대해 질문할 수도 있어요
[14:00]
정말 멋지죠
[14:02]
이건 제가 사용할 수 있는
[14:03]
도구들의 일부 예시일 뿐이에요
[14:05]
이런 도구들을 함께 사용하는 게
[14:07]
얼마나 쉬운지 보세요
[14:10]
자, 지금까지 많은 내용을 다뤘네요
[14:12]
잠시 정리해 볼까요
[14:14]
지금까지 우리는
[14:16]
MCP에 대해 꽤 높은 수준으로 이해했습니다
[14:19]
무엇이고 왜 중요한지
[14:20]
어떻게 활용할 수 있는지, Claude 데스크톱으로 예시를 봤죠
[14:23]
Cursor 같은 다른 도구의
[14:25]
문서도 찾아볼 수 있습니다
[14:27]
분명 있을 거예요
[14:29]
설정 방법은 Claude 데스크톱과
[14:31]
매우 비슷할 것입니다. 이제는
[14:33]
MCP로 개발하는 방법을 살펴보겠습니다
[14:36]
우리만의 도구를 패키징할 서버를 만들 수 있고
[14:39]
클라이언트도 만들 수 있습니다
[14:41]
Pantic AI 같은 프레임워크로 AI 에이전트를 만들어서
[14:43]
MCP 서버의 에이전트 도구를 활용할 수 있죠
[14:47]
이 영상은 확실히 속성 과정이었고
[14:49]
높은 수준에서 필요한 것만
[14:51]
알려드렸습니다
[14:52]
그래서 MCP 개발 부분은
[14:54]
빠르게 넘어가려고 합니다만
[14:57]
댓글로 알려주세요
[15:00]
어떤 주제로 전용 영상을
[15:02]
자세히 다뤄주길 원하시는지
[15:04]
곧 MCP 관련 콘텐츠를
[15:06]
더 많이 만들 예정이거든요
[15:09]
MCP 서버 구축이나
[15:11]
n8n이나 Pantic AI와의 통합에 대해
[15:14]
자세히 다뤄보고 싶습니다
[15:17]
의견을 들려주세요
[15:18]
지금은 빠르게 훑어보고
[15:20]
시작할 수 있는 템플릿을 제공해서
[15:21]
직접 시작해보실 수 있게 하겠습니다
[15:23]
먼저 MCP 서버 구축에 대해 말씀드리겠습니다
[15:26]
이것도 앞으로 전용 영상으로
[15:28]
다룰 가능성이 매우 높습니다
[15:30]
문서에서 몇 가지 페이지를
[15:32]
빠르게 짚고 넘어가겠습니다
[15:33]
먼저 서버 개발자를 위한 섹션에서는
[15:36]
간단한 날씨 MCP 서버 구축 예제를
[15:38]
제공하고 있습니다
[15:41]
날씨 데이터를 다루는
[15:43]
몇 가지 도구가 있고
[15:44]
사용하고 싶은 SDK에 따라
[15:46]
파이썬 MCP 서버를 만들고 싶다면
[15:48]
이걸 확인해보세요
[15:50]
GitHub로 이동해서
[15:51]
원하는 특정 언어의
[15:53]
예제들을 볼 수 있습니다
[15:55]
여기엔 더 많은 정보가 있어요
[15:57]
지금은 자세히 다루지 않을 건데
[15:59]
제가 보여드리고 싶은
[16:00]
중요한 것은 LLM으로 MCP를 만드는 거예요
[16:04]
솔직히 말해서 바이브 코딩을
[16:06]
완전히 신뢰하진 않지만
[16:08]
우리 모두 AI 코딩 어시스턴트를
[16:10]
프로젝트 시작할 때 최소한
[16:12]
사용하고 있잖아요. 그래서 Claude는 MCP 문서에서
[16:15]
llm d.text를 방문하시면
[16:18]
여기서 볼 수 있는 것이
[16:19]
markdown 형식의 전체 MCP 문서입니다.
[16:22]
이것을 복사해서
[16:24]
선호하는 AI IDE에 붙여넣을 수 있죠.
[16:27]
예를 들어 Winsurf에
[16:29]
전체 내용을 붙여넣고
[16:31]
이를 활용해서 MCP 서버를 만들도록
[16:33]
요청할 수 있습니다.
[16:36]
예를 들어 Brave 서버를 만들 수도 있고
[16:39]
Winsurf 내에서
[16:41]
MCP 문서를 직접 참조할 수 있습니다.
[16:43]
다른 AI IDE에서도 가능할 것 같은데
[16:45]
Cursor에서도 될 거예요.
[16:47]
매우 강력하죠, 두 가지 옵션이 있습니다.
[16:49]
네, 이 문서를 사용해서
[16:51]
Brave로 웹 검색이 가능한 MCP 서버를 만들어볼게요.
[16:56]
자, 이렇게 실행하면
[16:59]
처리되는 동안 기다리면 됩니다.
[17:01]
문서를 전부 검토하고
[17:02]
코드를 생성할 거예요.
[17:04]
완성되면 다시 돌아오겠습니다.
[17:05]
보세요, 완전한 MCP 서버를 만들었네요.
[17:07]
코드를 자세히 살펴보진 않을 건데
[17:10]
지금 실행하진 않을 거예요.
[17:12]
간단히 보여드리고 싶어서요.
[17:14]
하지만 이건 정말
[17:15]
훌륭해 보입니다.
[17:17]
잘 작성된 MCP 서버로 보이네요.
[17:19]
이 변경사항들을 모두 수락하면
[17:22]
Brave 웹 검색용 도구가 있고
[17:23]
심지어 Brave의 여러 API 엔드포인트를
[17:26]
사용하는데 이게 정말 멋지네요.
[17:28]
Claude 데스크톱 설정 예제와 README도 있어요.
[17:30]
모든 것을 자동으로 만들어줬습니다.
[17:33]
이건 물론 Winsurf가 뛰어나서이기도 하지만
[17:35]
MCP 문서를 모두 활용해서
[17:36]
이걸 만들어냈다는 게 놀랍네요.
[17:40]
Brave는 단순한 데모 예제이고
[17:42]
아마 GitHub 저장소에 없는
[17:44]
뭔가를 만들고 싶으실 텐데
[17:45]
이미 사용 가능한 것 말고요.
[17:47]
나중에 전용 영상을 만들어서
[17:49]
처음부터 MCP 서버를 만드는 걸
[17:51]
기존에 없는 새로운 걸 만들어보려고 해요.
[17:54]
결국 MCP 서버가 없는
[17:56]
다양한 서비스들이 있고
[17:57]
때로는 정말 맞춤형 서버가 필요한데
[17:59]
여러 도구를 결합하거나
[18:01]
로컬 LLM과 연동하는 등
[18:03]
다양한 가능성이 있죠.
[18:05]
로컬에 설정된 LLM으로 작업하거나
[18:06]
가능성은 무한합니다.
[18:08]
다음으로 n8n을 살펴보겠습니다.
[18:10]
MCP 서버를 n8n AI 에이전트에
[18:13]
직접 통합할 수 있는데
[18:15]
최근에 개발된 커뮤니티 노드를 통해서죠.
[18:18]
GitHub 저장소 링크를
[18:19]
설명란에 넣어두었는데
[18:21]
설치 방법과
[18:23]
Brave MCP 서버와의 통합 예제가 있습니다.
[18:25]
제가 만든 것 중 하나를 실제로 사용했죠.
[18:28]
n8n으로 돌아가서
[18:30]
왼쪽 하단의 설정으로 가보면
[18:32]
자체 호스팅하거나
[18:33]
로컬에서 실행 중인 경우 작동하는데
[18:36]
커뮤니티 노드 탭으로 가서
[18:37]
설치를 클릭하고
[18:40]
nn-no-mcp를 입력해서 설치하면 됩니다.
[18:43]
저는 제 커스텀 버전이 있는데
[18:46]
나중에 메인 저장소에 PR을 할 수도 있어요.
[18:48]
아직은 완성도가 높지 않아서
[18:50]
아직 완성도가 높지 않은 노드라서
[18:51]
몇 가지 버그를 수정하고 있었어요.
[18:53]
나중에 이에 대한 영상도 만들 수 있을 것 같고요.
[18:55]
다시 에이전트로 돌아가서,
[18:57]
이러한 MCP 노드 중 하나에서는
[18:59]
기본 노드나 에이전트용 도구로 사용할 수 있는데
[19:02]
들어가서 사용하고 싶은
[19:04]
각 MCP 서버에 대한
[19:06]
자격 증명을 생성할 수 있습니다.
[19:08]
Claude 데스크톱이나 다른 앱들처럼
[19:10]
npx 같은 메인 명령어가 있고
[19:11]
인자값들과 환경 변수들이 있습니다.
[19:14]
이것들을 모두 설정하고 저장하면
[19:16]
이런 도구들을 모두 사용할 수 있죠.
[19:18]
도구들을 나열할 수 있고
[19:19]
MCP 서버의 프롬프트도 볼 수 있으며
[19:21]
도구를 실행할 수도 있습니다.
[19:24]
여기 Brave의 도구들을 나열하는 것이 있고
[19:25]
또 다른 하나는 Brave의 어떤 도구든
[19:27]
MCP 서버 내에서 실행할 수 있습니다.
[19:30]
설명란에 있는 이 템플릿을
[19:32]
자유롭게 다운로드해서
[19:34]
제가 어떻게 에이전트에게
[19:36]
이런 MCP 서버들과 작업하도록
[19:38]
프롬프트를 주었는지 확인해보세요.
[19:40]
Brave와 Convex 등 몇 가지 예시가 있는데
[19:42]
꽤 멋진 것 같아요.
[19:44]
이 채팅을 열어서
[19:46]
'일론 머스크의 순자산을 웹에서 검색해줘'라고 할 수 있죠.
[19:50]
이건 LLM이 혼자서는
[19:51]
절대 할 수 없는 일이에요.
[19:53]
보시다시피 먼저
[19:54]
웹 검색을 위한 Brave 도구들이
[19:56]
어떤 것들이 있는지 확인하고
[19:58]
웹 검색을 실행합니다.
[20:00]
자, 여기 순자산이 나왔네요.
[20:02]
3,230억 달러인데,
[20:05]
12월보다 1,000억 달러 이상 줄었다는게
[20:07]
아주 흥미롭네요.
[20:09]
마지막으로 보여드릴 구현은
[20:12]
Python에서 커스텀 MCP 클라이언트를 만들어
[20:14]
여기서 사용하는 Pantic AI 같은 프레임워크로
[20:17]
AI 에이전트를 만드는 방법입니다.
[20:19]
Python SDK 문서를 자세히 살펴보실 수 있고
[20:21]
이 템플릿도 다운로드 가능합니다.
[20:24]
MCP에서 몇 가지를 임포트하고
[20:26]
아래에서 연결하고자 하는
[20:28]
서버를 정의합니다.
[20:30]
그리고 에이전트 내에서 사용할
[20:32]
클라이언트 세션을 생성합니다.
[20:34]
제가 클라이언트로 하는 일은
[20:37]
이 헬퍼 함수를 사용해서
[20:39]
도구 목록을 수집하는 것입니다.
[20:42]
MCP를 호출해서
[20:44]
서버의 도구들을 가져오고
[20:47]
이를 모두 Pantic AI 도구 정의로
[20:49]
패키징합니다.
[20:52]
여기에는 설명과
[20:53]
도구의 인자값들이 포함되어 있고
[20:55]
이것을 Pantic AI 에이전트의
[20:57]
tools_to에 입력합니다.
[20:59]
마치 도구를 코드에서 정의하는 것처럼
[21:01]
tools.py나 다른 파일에서 하는 것과 같죠.
[21:04]
클라이언트를 설정하고
[21:06]
Pantic AI에서 사용하는 게 이렇게 쉽습니다.
[21:08]
Crew AI나
[21:10]
OpenAI SDK 같은 다른 프레임워크에서도
[21:13]
비슷하게 할 수 있습니다.
[21:15]
이제 터미널에서
[21:17]
평소처럼 Python 스크립트를 실행하고
[21:19]
에이전트와 대화할 수 있어요.
[21:22]
보시다시피
[21:23]
파일 시스템 서버가 로드되고 있습니다.
[21:26]
파일 디렉터리를 알려주고
[21:28]
'안녕'이라고 하면 도구를 사용하지 않고
[21:29]
일반적인 대화만 하지만
[21:32]
어떤 파일들이 있는지 물어보면
[21:35]
MCP 서버를 직접 호출해서
[21:36]
이 폴더에 있는 파일들을 알려줍니다
[21:40]
네, 정확한 답변이 나왔네요
[21:42]
그래서 저는 확실히
[21:44]
커스텀 AI 에이전트에 이러한 클라이언트를
[21:47]
통합하는 것에 대한 전용 영상을 만들고 싶습니다
[21:51]
댓글로 알려주세요
[21:52]
특별히 관심이 있으시다면
[21:54]
이 주제에 깊이 파고들 것 같거든요
[21:56]
지금까지 MCP에 대해
[21:57]
모든 것을 다뤘고, 마지막으로
[21:59]
중요한 점을 말씀드리고 싶은데
[22:01]
바로 모델 컨텍스트 프로토콜의
[22:03]
미래에 대해서입니다
[22:06]
가까운 미래에 누가 알겠습니까
[22:08]
더 나은 표준이 개발되어서
[22:10]
MCP가 구식이 될 수도 있죠
[22:13]
그럴 것 같지는 않지만
[22:15]
그렇게 되더라도
[22:17]
이 프로토콜을 깊이 이해하는 것이
[22:19]
중요합니다. Anthropic이
[22:22]
이것을 아주 잘 만들고 있거든요
[22:24]
앞으로 5년이나 10년 동안
[22:26]
어떤 표준이 주도하게 되든
[22:28]
이와 매우 비슷할 것이고
[22:30]
이러한 표준화에 익숙해지는 것이
[22:33]
LLM에 도구를 추가하는데 있어
[22:34]
우리에게 매우 중요합니다
[22:37]
이것은 우리가 얻고자 하는
[22:40]
더 높은 수준의 이해이기 때문이죠
[22:42]
개발자로서, 그리고
[22:44]
AI로 무언가를 만드는 사람으로서
[22:46]
Anthropic은 또한 놀라운 로드맵을 가지고 있습니다
[22:48]
MCP에 대한
[22:50]
훌륭한 비전을 가지고 있다고 생각합니다
[22:53]
에이전트를 위한 표준화의 왕좌로 만들려는
[22:55]
원격 MCP 지원을 보세요
[22:57]
지금까지는 모든 서버를
[22:58]
로컬에서 실행했지만
[23:00]
클라우드에서 실행하고
[23:02]
클라이언트들이 클라우드에 연결하고
[23:03]
인증과 권한 부여까지
[23:05]
MCP 서버의 수익화까지
[23:08]
분명히 가능할 것입니다
[23:10]
이것은 매우 중요하고
[23:12]
이런 에이전트 지원은
[23:14]
저를 열광하게 만듭니다
[23:16]
MCP로 복잡한 에이전트 워크플로우를 추가하고
[23:18]
MCP 서버로 직접 지원되는
[23:21]
서브 에이전트들, 계층적 에이전트 시스템
[23:24]
와, 정말 대단하죠
[23:25]
이 표준화에 구축할 수 있는
[23:27]
놀라운 것들이 많습니다
[23:30]
AI와 함께 이미 가능한 강력한 개념들을
[23:33]
에이전트 워크플로우와 고급 도구로
[23:36]
구현할 수 있지만
[23:37]
이것이 기술적 지식이 부족한 사람들도
[23:40]
훨씬 쉽게 접근할 수 있게 해주고
[23:42]
도구와 아이디어를 서로 공유할 수 있게
[23:44]
해준다는 점이 저를 흥분시킵니다
[23:47]
그래서 MCP와 관련된 모든 것에
[23:49]
깊이 파고들고 싶습니다
[23:52]
이 영상이 여러분에게
[23:53]
MCP를 높은 수준에서 이해하고
[23:56]
지금 바로 사용하는 데 필요한
[23:58]
모든 것을 전달했기를 바랍니다
[23:59]
다음 MCP 관련 영상에서
[24:02]
더 자세히 다루길 원하는 내용을
[24:05]
댓글로 알려주세요
[24:06]
자체 MCP 서버 만들기나
[24:08]
n8n 통합, 파이썬 AI 에이전트에
[24:10]
클라이언트 통합하기 등
[24:13]
더 깊이 다룰 수 있는 주제가 많습니다
[24:15]
이 콘텐츠가 도움이 되었고
[24:17]
AI 에이전트와 MCP에 대해 더 기대된다면
[24:20]
좋아요와 구독을 부탁드립니다
[24:22]
그럼 다음 영상에서
[24:24]
만나뵙겠습니다