클로드 MCP가 AI를 영원히 바꿨다 - 반드시 알아야 할 내용

채널 아이콘
Cole Medin 구독자 78,300명

요약

이 영상은 Anthropic에서 개발한 mCP(Model Context Protocol)가 AI 에이전트 개발에 어떻게 혁신적인 변화를 가져왔는지에 대해 종합적으로 설명합니다. mCP는 LLM(대형 언어 모델)과 도구를 연결하는 표준화된 인터페이스로, USB 포트나 API 엔드포인트와 유사한 역할을 합니다. 영상에서는 기존의 개별 함수 방식과 mCP를 통해 코드 중복 없이 도구를 재사용하는 방법을 비교하며, 실제 서버 및 클라이언트 통합 예제와 Python, n8n 등의 최신 툴 사용법을 소개합니다. 또한 앞으로 mCP가 AI 생태계 내에서 가지게 될 의미와 발전 방향에 대해서도 언급합니다.

주요 키워드

mCP AI 에이전트 표준화 LLM 도구 재사용 API 엔드포인트 서버 구축 클라이언트 통합 n8n Python SDK

하이라이트

  • 🔑 mCP는 AI 에이전트에 도구를 표준화하여 제공하는 프로토콜로, 기존의 중복 코드를 줄이고 재사용성을 높입니다.
  • ⚡️ mCP를 USB 포트나 API 엔드포인트에 비유하며, 쉽게 연결하여 사용할 수 있도록 도와주는 역할을 강조합니다.
  • 🌟 영상은 mCP의 개념, 중요성, 그리고 실제 적용 사례를 통합적으로 다루며, 다양한 클라이언트와 서버 예제를 통해 실용적인 활용법을 제시합니다.
  • 🚀 Anthropic 및 오픈 소스 커뮤니티에서 개발한 공식 및 커뮤니티 기반 mCP 서버들이 이미 다수 존재함을 설명합니다.
  • 📌 Python SDK, n8n과 같은 도구를 활용해 mCP를 직접 구축하고 통합하는 방법에 대해 심도 있게 다루며, 향후 확장 가능성에 대해서도 언급합니다.

용어 설명

mCP (Model Context Protocol)

AI 에이전트에 도구를 표준화된 방식으로 제공하기 위한 프로토콜로, LLM과 다양한 서비스를 쉽게 연결할 수 있도록 만듭니다.

AI 에이전트

LLM을 기반으로 대화나 특정 작업을 수행할 수 있도록 도구와 기능을 통합한 지능형 시스템을 의미합니다.

n8n

오픈 소스 워크플로우 자동화 툴로, mCP 서버와 연동하여 AI 에이전트의 기능을 확장하는 데 사용됩니다.

[00:00:00] 소개 및 mCP 개요

영상은 mCP의 기본 개념과 AI 업계에서 주목받는 이유를 소개합니다. mCP가 기존 방식과 어떻게 다른지에 대해 간략히 설명합니다.

AI 분야에서 Claude의 Model Context Protocol(MCP)이 가장 주목받고 있으며, 이는 Anthropic이 개발한 LLM 도구 표준화 프로토콜입니다.
MCP에 대한 포괄적인 개요와 함께 그것이 무엇이고, 왜 중요한지, 그리고 어떻게 활용할 수 있는지 설명합니다.
[00:00:31] mCP의 정의와 중요성

mCP가 무엇인지, 왜 중요한지, 그리고 생산성 향상 및 AI 에이전트를 위한 도구 제공 방식에 대해 자세히 설명합니다.

다른 일시적인 AI 기술들과 달리, MCP는 지속적으로 발전하고 있으며 작년 11월부터 그 유용성이 계속 입증되고 있습니다.
MCP를 활용하면 LLM과 AI 에이전트를 강화하여 경쟁력 있는 이점을 얻을 수 있습니다.
MCP는 AI 애플리케이션을 위한 USB-C 포트나 API 엔드포인트와 같은 역할을 하며, 도구들을 AI 에이전트에 표준화된 방식으로 연결합니다.
MCP 문서는 포괄적이지만 개선의 여지가 있으며, 이는 교육자들이 더 나은 설명을 제공할 기회가 됩니다.
[00:03:04] 기존 방식 vs mCP 방식

AI 에이전트 개발에서 개별 함수로 도구를 구현하는 기존 방식과 mCP를 통한 표준화된 도구 제공 방식을 비교 분석합니다.

MCP 이전의 AI 에이전트 구조를 설명하기 위한 다이어그램을 소개합니다.
AI 에이전트는 다양한 도구 함수들(파일 생성, Git 커밋, 데이터베이스 조작 등)을 통해 작업을 수행합니다.
하지만 이러한 도구들을 다른 AI 에이전트나 프레임워크에서 재사용하는 데 어려움이 있습니다.
이러한 문제를 해결하기 위해 MCP가 등장했으며, 도구들을 표준화된 방식으로 패키지화하여 재사용성을 높였습니다.
MCP를 통한 AI 에이전트 업그레이드와 도구 표준화에 대해 설명합니다. 개별 도구와 함수를 일일이 정의할 필요 없이 MCP 서버를 통해 모든 도구들을 표준화된 방식으로 사용할 수 있습니다.
Supabase 서비스를 예시로 들어 MCP 프로토콜을 통한 도구 제공 방식을 설명합니다. 내부적으로는 동일한 방식으로 작동하며, 도구 재사용성과 표준화가 주요 장점입니다.
MCP에 대한 중요한 오해를 바로잡습니다. MCP는 혁신적인 새로운 기술이 아니라 기존 도구들을 표준화하고 접근성을 높인 프로토콜임을 강조합니다.
[00:08:20] 다양한 mCP 서버와 클라이언트 사례

공식 및 커뮤니티 기반 mCP 서버, 여러 클라이언트(Claude, pantic AI, n8n 등)에서 mCP를 활용하는 예시와 통합 방법을 소개합니다.

MCP 문서에서 제공하는 다양한 클라이언트 목록을 살펴보면, AI IDE, 앱, 프레임워크 등 많은 도구들이 MCP를 지원하고 있습니다.
MCP의 고급 기능인 리소스, 프롬프트, 샘플링, 루트에 대해 설명합니다. 특히 실시간 데이터 업데이트와 LLM과의 상호작용 기능을 강조합니다.
현재 MCP는 도구 표준화에 초점을 맞추고 있으며, Anthropic과 오픈소스 커뮤니티에 의해 지속적으로 발전하고 있습니다.
MCP 서버의 실제 활용 사례들을 소개하며, 파일 시스템과 구글 드라이브 통합 등 다양한 기능을 설명합니다.
MCP는 공식 서버와 커뮤니티 서버를 통해 Brave 검색, 데이터베이스 관리, 웹 크롤링 등 다양한 서비스를 제공하고 있습니다.
MCP 서버의 다양한 구현 예시를 소개합니다. 스테이지핸드 플랫폼을 통해 자연어로 AI 에이전트가 웹 크롤링을 수행하고, Quadrant를 통해 RAG 기능을 손쉽게 구현할 수 있습니다.
MCP 서버는 JavaScript나 Python으로 구축되며, Docker, NPX, uvicorn 등 다양한 방식으로 실행할 수 있습니다. 각 서버의 설치 및 실행 방법이 상세히 안내되어 있습니다.
Claude Desktop에서 MCP 서버 설정하는 방법을 설명합니다. 파일 메뉴의 설정에서 개발자 탭을 통해 JSON 설정 파일을 편집할 수 있습니다.
다양한 MCP 서버들의 기능을 소개합니다. Stagehand의 웹 크롤링, 메모리 구현, Archon AI 에이전트 빌더 등 여러 서버들이 구현되어 있습니다.
Claude Desktop에서 도구들을 실제로 사용하는 데모를 보여줍니다. Brave 검색과 Stagehand를 연계하여 웹페이지 검색 및 탐색을 수행하는 과정을 시연합니다.
Claude와 Stagehand를 사용하여 모델 페이지를 찾고 스크린샷을 캡처하는 기능을 시연합니다.
Claude로 돌아가 캡처한 페이지에 대해 질문하고 상호작용하는 기능을 보여줍니다.
[00:14:00] 실제 활용 예제 및 데모

파일 시스템, 웹 검색 등 구체적인 도구 사용 예제를 통해 mCP를 활용한 AI 에이전트의 작업 처리 과정을 시연합니다.

MCP의 기본 개념과 Claude 데스크톱 활용 방법에 대한 전반적인 이해를 정리합니다.
MCP 개발에 대한 소개와 서버/클라이언트 구축 가능성을 설명합니다.
앞으로의 MCP 관련 콘텐츠 계획과 시청자 의견 수렴에 대해 언급합니다.
MCP 서버 구축에 대한 기본 가이드와 문서 활용 방법을 설명하기 시작합니다.
[00:16:00] mCP 서버 구축 및 커스텀 통합

Python과 n8n을 활용하여 mCP 서버를 직접 구축하고, 이를 AI 에이전트와 연동하는 방법에 대해 안내합니다.

LLM을 활용한 MCP 개발의 중요성과 AI 코딩 어시스턴트의 실용성에 대해 논의합니다.
MCP 문서를 AI IDE에서 활용하는 방법에 대해 설명합니다. llm d.text에서 전체 MCP 문서를 복사하여 Winsurf와 같은 IDE에 붙여넣어 사용할 수 있습니다.
Brave 서버 구축 예제를 통해 MCP 서버 생성 과정을 보여줍니다. AI가 문서를 분석하여 자동으로 서버 코드를 생성하는 과정이 포함됩니다.
생성된 MCP 서버 코드를 검토합니다. Brave 웹 검색 기능, API 엔드포인트, Claude 데스크톱 설정 등 완성도 높은 서버가 자동으로 생성되었습니다.
n8n과 MCP 서버의 통합에 대해 설명합니다. 커뮤니티 노드를 통해 n8n AI 에이전트에 MCP 서버를 쉽게 통합할 수 있습니다.
MCP 노드의 개선 사항과 버그 수정에 대해 언급하며, 추후 관련 영상 제작 가능성을 시사합니다.
MCP 노드를 기본 노드나 에이전트용 도구로 설정하는 방법과 서버 자격 증명 생성 과정을 설명합니다.
npx 명령어, 인자값, 환경 변수 설정 등 MCP 도구 구성 방법을 자세히 설명합니다.
일론 머스크의 순자산 검색 예시를 통해 LLM과 MCP 도구의 실제 활용 사례를 보여줍니다.
Python에서 커스텀 MCP 클라이언트 생성과 Pantic AI 프레임워크 통합 방법을 설명합니다.
다양한 프레임워크(Crew AI, OpenAI SDK 등)에서의 MCP 활용 가능성과 실제 구현 방법을 소개합니다.
파일 시스템 탐색 기능을 시연하며, 일반 대화와 도구 사용의 차이점을 보여줍니다.
MCP의 미래와 표준화에 대한 전망을 논의하며, Anthropic의 비전과 로드맵을 설명합니다.
[00:22:03] 미래 전망 및 마무리

mCP의 표준화가 앞으로 AI 생태계에 미칠 영향과 추가 콘텐츠 개발 계획, 향후 기술 발전 방향을 논의합니다.

원격 MCP 지원, 인증, 권한 부여, 수익화 등 향후 발전 방향에 대해 설명합니다.
복잡한 에이전트 워크플로우, 계층적 시스템 등 MCP의 확장 가능성을 제시합니다.
현재 AI 분야에서 일어나고 있는
모든 일들 중에서 Claude의 Model Context Protocol이
가장 큰 주목을 받고 있는데,
여기엔 그만한 이유가 있습니다.
이것은 Anthropic이 개발한 놀라운 프로토콜로,
LLM이 우리의 서비스를 활용할 수 있도록
도구를 제공하는 방식을 표준화했습니다.
현재 많은 사람들이 이것을 다루고 있고
좋은 콘텐츠를 만들고 있지만
제가 본 대부분의 영상들은
너무 세부적인 내용을 다루거나
MCP로 뭔가를 만드는 것에 집중하거나
아니면 예시 없이 높은 수준에서만 설명하고 있습니다.
제가 알기로 여러분에게 필요한 것은
지금 제가 다룰
MCP에 대한 포괄적인 개요입니다.
높은 수준에서 알아야 할 모든 것,
MCP가 무엇이고 왜 중요한지,
그리고 오늘부터 어떻게 사용할 수 있는지,
생산성을 높이고 더 나은 AI 에이전트를
만드는 데 활용하는 방법을 알려드리겠습니다.
MCP의 특별한 점은 다른 AI 기술들과 달리
쉽게 사라지지 않을 것이라는 점입니다.
최근에 우리는 많은 '스파크'들을 보았습니다.
제가 말하는 스파크란 Mani,
OpenAI Operator, DeepSeek R1 같은 것들로
처음에는 엄청난 화제를 모았지만
몇 주 만에 그 열기가 식어버렸죠.
하지만 MCP는 이와 다릅니다.
이는 마치 꺼지지 않는 장작불과 같아서
점점 더 뜨거워질 것입니다.
게다가 이것은 새로운 것도 아닙니다.
작년 11월부터 있었던 것인데
시간이 지날수록 사람들이
이것이 얼마나 유용하고
강력한지 깨닫고 있는 것뿐입니다.
이것이 바로 단순한 과대광고가 아니라는 증거이며
제가 최근 이것을 배우는 데
많은 시간을 투자하고 있는 이유입니다.
여러분도 같은 선택을 하시길 추천합니다.
간단히 말해서, MCP를 사용하여
LLM과 AI 에이전트를 강화하면
그렇지 않은 사람들에 비해
압도적인 이점을 가질 수 있고
이는 쉽게 사라지지 않을 것입니다.
지금부터 여러분이 알아야 할
모든 것을 설명해드리겠습니다.
영상 후반부에서는
n8n과 파이썬 에이전트에 MCP를 통합하는 방법도
다운로드 가능한 템플릿과 함께 보여드리겠습니다.
짧은 영상에 많은 가치를 담았으니
바로 시작해보겠습니다.
여기 MCP의 공식 문서가 있습니다.
설명 란에 링크를 남겨두었고
이를 참고하면서
핵심 개념들을
하나씩 살펴보도록 하겠습니다.
문서의 소개 페이지에는
홈페이지에
MCP가 무엇인지에 대한
간단하고 명확한 정의가 나와있습니다.
MCP는 AI 애플리케이션을 위한 USB-C 포트와 같다고
생각하면 됩니다. USB로 우리의 기기들을
표준화된 방식으로 주변기기에 연결하듯이
MCP는 우리의 도구들을 매우 쉽게
표준화된 방식으로 LLM에 연결합니다.
또 다른 비유로는 최근 자주 듣는
MCP는 AI 에이전트를 위한
API 엔드포인트와 같다는 설명이 있습니다.
기업들이 자신들의 백엔드 서비스를 다른 애플리케이션에
노출시키기 위해 API를 만드는 것처럼
MCP는 AI 에이전트에게
도구들을 노출시키는 방법입니다.
매우 명확하고 간단하죠.
MCP 문서가 마음에 드는 이유입니다.
꽤 포괄적이긴 하지만
많은 부분이 빠져있고 일부 다이어그램은
좀 더 명확하게 설명할 수 있었을 것 같습니다.
하지만 저는 이것이 오히려 좋습니다.
저와 다른 교육자들이 나서서
여러분의 이해를 도울 수 있기 때문이죠.
그래서 지금부터 시작하겠습니다.
단순히 MCP가 무엇인지 설명하는 것이 아니라
왜 유용한지도 함께 설명해드리겠습니다.
이해를 돕기 위해
다이어그램도 준비했는데요.
제가 특별히 여러분을 위해 준비한
첫 번째 다이어그램은 MCP 이전의
AI 에이전트의 모습을 보여줍니다.
결국 MCP가 무엇이고
왜 유용한지 설명하는 가장 좋은 방법은
MCP가 없었을 때 우리가
어떤 어려움을 겪었는지 보여주는 것이니까요.
여기 AI 에이전트가 있습니다.
이것은 Langchain AI, Crew AI, n8n으로 만들 수 있는데
어떤 것을 사용하든 상관없습니다.
결국 AI 에이전트에서는
AI 에이전트에게 제공되는 도구 함수들을 만들어야 하거든요.
파일을 만드는 함수,
Git 커밋을 만들거나 데이터베이스의
테이블을 나열하는 함수 등을 만들고
문서화를 통해 AI 에이전트에게
각 도구를 언제 어떻게 사용할지 알려줍니다.
이를 통해 대화를 통해
우리를 대신해 이러한 작업을 수행할 수 있죠.
이것이 바로 AI 에이전트를
단순한 챗봇이나 워크플로우가 아닌
진정한 AI 에이전트로 만드는 것입니다.
우리가 말하는 것을 바탕으로
이 파일을 업데이트하고 Git에 푸시하고
Supabase의 레코드를 업데이트하는 등
작업을 추론할 수 있습니다. 하지만
다른 AI 에이전트에서 이러한 도구를
재사용하려고 할 때 문제가 발생합니다.
만약 제가 Langchain AI로 시작했다가
n8n으로 다른 에이전트를 만들고 싶거나
또는 Claude Desktop이나
Windsurf 같은 AI IDE에서
이 도구들을 사용하고 싶다면
개별 함수로 만든 이 모든 도구들을
재사용하는 것이 사실상 불가능합니다.
결국 많은 기능을
다시 작성해야 하고,
여러 사람들 간에 공유할 때는
상황이 더 나빠집니다.
이걸 어떻게 깔끔한 패키지로 만들어서
다른 사람에게 전달하여
그들이 어떤 프레임워크를 사용하든
AI 에이전트와 함께 사용할 수 있을까요?
그래서 결국 자신을 위해
중복된 코드를 많이 개발하거나
여러 사람들이 개별적으로
매우 유사한 도구들을
계속해서 다시 만들게 됩니다.
이것이 바로 우리에게
표준화가 필요한 이유입니다.
개별 서비스를 위한 모든 도구를
다른 사람들과 공유하고
우리가 직접 재사용할 수 있도록
깔끔하게 패키지화하는 방법이 필요합니다.
이것이 바로 MCP가 제공하는 것입니다.
표준화된 방식으로 만들어진
모든 깔끔한 패키지들로
'이 도구들을 어떻게 가져와서
더 많은 사용 사례에 적용할까'라는
고민을 할 필요가 없어졌습니다.
같은 코드를 계속해서
다시 만들 필요가 없는 거죠.
이제 두 번째 다이어그램을 보면
AI 에이전트가 MCP를 사용하도록
업그레이드되면 이제는
개별 도구와 함수를 일일이 정의할 필요 없이
MCP 서버가 제공하는 서비스들을
통해 AI 에이전트와 통신하며
모든 도구들을 사용할 수 있게 됩니다.
이러한 방식으로 우리가
n8n으로 에이전트를 만들든,
Cursor를 사용하든, Pantic AI로 개발하든
상관없이 동일한 방식으로
이러한 서버들을 활용할 수 있습니다.
왜냐하면 MCP 서버들이
도구들을 표준화하는 중간자 역할을 하기 때문입니다.
에이전트에게 도구를 제공하는 방식이 표준화되고
내부적으로는 모든 것이 동일하게 작동합니다.
예를 들어 Supabase 서비스의 경우
MCP를 통해 동일한 도구들을 가지고 있지만
MCP 프로토콜을 통해 이러한 Supabase
도구들이 AI 에이전트에게
전달됩니다. 이 과정을 통해
에이전트는 어떤 Supabase
도구들이 사용 가능한지 알 수 있고
AI 에이전트가 도구를 사용하는 방식은
내부적으로 완전히 동일합니다.
따라서 Model Context Protocol에는
혁신적으로 새로운 것이 없습니다.
도구를 사용하는 방식을 바꾸는 것이 아니라
도구를 쉽게 재사용하고
깔끔하게 패키징하는 것입니다.
예를 들어 첫 번째
에이전트가 Pantic AI로 만들어졌다면
이러한 MCP 서버들을 Cursor에서도
포함시킬 수 있고, 두 번째 호스트에서도
동일한 방식으로 이 서버들을
사용할 수 있습니다. 별도의
서버 인스턴스가 있겠지만
내부적으로는 정확히 같은 코드를
사용하므로 중복이 없고
서버나 도구들을 다시 만들 필요가 없으며
내부적으로는 모두 동일하게
같은 서비스에서 제공되는 도구들을 사용합니다.
저는 '동일하다'는 표현을 자주 쓰는데
이는 표준화의 중요한
부분이기 때문입니다.
이제 제 얼굴을 다시
화면에 보여드리는 이유는
앞서 언급했던 매우 중요한 점을
다시 강조하고 싶기 때문입니다.
MCP에서도 AI 에이전트들은 내부적으로
도구를 정확히 같은 방식으로 사용한다는 점입니다.
결국 이 서버들이 제공하는
도구들은 단순히 LLM에 대한
프롬프트의 일부로 제공되기 때문입니다.
에이전트는 도구를 사용하기로 결정하고
도구 호출을 실행하기 위한
특정 출력을 생성합니다.
많은 사람들이 가지고 있는 큰 오해는
MCP가 이전에는 없었던
혁신적인 LLM 기능을
제공한다는 것인데
이는 전혀 사실이 아닙니다.
우리는 항상 LLM에서 사용할 수 있는
이러한 도구들에 접근할 수 있었고
MCP는 단지 이를 표준화했을 뿐입니다.
우리가 계속 얘기했듯이
더 접근하기 쉽고
다른 사람들과 공유할 수 있는
도구 패키지를 만들기 쉽게 했습니다.
여전히 매우 강력하지만, 완전히 새로운
차원의 기능을 제공하는 기술은
아니라는 점을 말씀드립니다.
이러한 주의사항을 말씀드린 후
이제 MCP 서버들과 그 활용처에 대해
MCP 문서로 돌아가서, 예시 클라이언트를 보시면
이런 목록이 있는데
완벽한 목록인지는 모르겠지만
정말 많은 앱들이
모델 컨텍스트 프로토콜을 지원하고 있습니다.
Klein, Rine, WindSurf, Cursor와 같은 AI IDE들이 있고
Claude Desktop 같은 앱들도 있으며
n8n도 있고, 프레임워크로는
Pantic AI, Crew AI, LangChain 등이 있습니다.
요즘은 모든 것이 MCP를 지원하는 것 같은데
이것이 매우 중요한 이슈가 되고 있기 때문이죠.
도구 표준화가 핵심인데
이것이 이 모든 클라이언트들이
지원하는 주요 기능입니다.
MCP에는 리소스, 프롬프트, 샘플링, 루트와 같은
다른 흥미로운 기능들도 있는데
리소스를 예로 들면
간단히 보여드리자면
LLM에 실시간으로 업데이트되는
데이터를 노출시킬 수 있습니다.
파일이나 데이터베이스 레코드 같은 것들이죠.
MCP를 통해 LLM과 프롬프트 템플릿을 공유할 수 있고
샘플링을 통해
LLM으로부터 완성된 결과를 도구로 요청할 수 있습니다.
정말 멋진 기능인데
이러한 다양한 기능들을 보면
대부분의 클라이언트들이
아직 완전히 지원하지는 않습니다.
이것들은 아직
실험적이고 개발 중인 단계에 있죠.
그래서 현재는 도구 표준화에
큰 초점이 맞춰져 있는 것입니다.
앞으로 주목해볼 만한 가치가 있는데
Anthropic과 오픈소스 커뮤니티에 의해
이러한 기능들이 더 발전될 것이기 때문입니다.
하지만 지금은 네,
도구에만 집중하고 있습니다.
이것이 클라이언트 부분이고,
나중에 파이썬으로 커스텀 클라이언트를 만드는 법을 보여드리겠지만
이제 재미있는 부분, 이미 사용 가능한
서버들을 살펴보겠습니다.
파일 시스템이나 구글 드라이브 같은 것들을 다룰 수 있고
또한 Claude Desktop에서
이 모든 것을 설정하는 방법도 보여드리겠습니다.
하지만 먼저 공식 MCP GitHub 저장소를 보여드리고 싶은데
지금 바로 사용할 수 있는 서버들의 목록이 있습니다.
Anthropic이 개발한 공식 서버들이 있고
공식 통합도 있는데
이 회사들이 자체적으로 MCP 서버를 만들어서
그들의 서비스를 사용할 수 있게 했고
커뮤니티가 만든 것들도 있습니다.
정말 놀라운 것은
MCP 서버로 이미 사용할 수 있는
서비스의 수가 굉장히 많다는 것입니다.
물론 원하는 것이 없다면
직접 만들 수도 있습니다.
예를 들어 Brave 검색 같은 것이 있는데
많은 LLM들이 이미 웹 검색 기능을 가지고 있죠.
ChatGPT 같은 경우가 그렇지만, Claude나
로컬 LLM들은 그렇지 않습니다.
이때 이것을 서버로 사용할 수 있고
Redis 데이터베이스나
Supabase의 Postgres 데이터베이스를 관리하는
서버를 가질 수 있습니다.
그리고 이러한 공식 통합으로
정말 많은 훌륭한 회사들이
MCP 통합을 위해 열심히 노력하고 있습니다.
예를 들어 Browserbase는 웹 크롤링과 스크래핑을 위한
헤드리스 브라우저 서비스를 제공하고
Stage라는 플랫폼도 있습니다.
스테이지핸드라는 플랫폼을 위한 MCP
서버가 있어서, 자연어로
AI 에이전트가 웹사이트를 크롤링하고
특정 정보를 추출할 수 있죠.
정말 놀라운 기능이에요. 그리고
예를 들어 RAG를 위한 Quadrant가 있는데
사용자 지정 RAG 도구를 구현할 필요 없이
Quadrant MCP를 사용하면 됩니다.
이러한 각각의 MCP 서버들은
JavaScript나 Python으로 구축되어 있어서
구축 방식에 따라
서로 다른 서비스로
실행하게 됩니다. 예를 들어
Brave 검색 MCP 서버는
Docker나 NPX로 실행할 수 있어요.
Docker Desktop을 설치하거나
Node.js를 설치해서
NPX 명령어를 사용할 수 있습니다.
다른 MCP 서버들 중에는
Chroma 벡터 데이터베이스 MCP 서버처럼
Python으로 만들어진 것도 있는데
이건 uvicorn으로 실행합니다.
Python이 설치되어 있다면
pip install uvicorn으로 설치해서 실행할 수 있죠.
이 모든 설치 방법들은
Claude Desktop에서의 설정 방법도 알려주고
이 설명을 바탕으로 n8n이나
Windsurf, Cursor 같은 다른 도구에서도
설정할 수 있어요. 항상 표준적이고
약간의 조정만 하면 됩니다.
Claude Desktop에서는
이런 서버들을 설정할 때
좌측 상단의 파일 메뉴를 클릭하고
설정으로 들어가서
개발자 탭으로 가면
여기서 설정을 편집할 수 있어요.
그러면 컴퓨터에서
이 폴더가 열리고
VS Code 같은 도구로
설정 파일을 열 수 있습니다. 여기에
제가 설정한 모든 MCP 서버들의
JSON 설정이 있는데, GitHub 가이드를
따라 설정했습니다. 여기서
파일 시스템, 웹 검색을 위한 Brave,
순차적 사고가 가능한
멋진 기능이 있고, mzero나
Zep과 비슷한 기본적인
메모리 구현도 있어요.
그리고 앞서 보여드린
Stagehand가 있는데,
자연어로
에이전트가 웹사이트를 크롤링하게 할 수 있죠.
그리고 제가 유튜브 채널에서
작업 중인 AI 에이전트 빌더를 위한
Archon MCP 서버도 있습니다.
이렇게 제 MCP 서버들이 있고,
Claude Desktop으로 돌아와서
이 망치 아이콘을 클릭하면
사용 가능한 모든 도구를 볼 수 있어요.
Windsurf나 Cursor에서도 비슷하게 보입니다.
여기서 모든 도구들과
각각의 설명을 볼 수 있고
이제 이 도구들을 함께 사용해야 하는
질문을 할 수 있습니다.
도구들이 협력해서 작업을 수행하죠.
이 경우에는 먼저 Brave 검색으로
Pantic AI 문서를 검색하고
검색이 끝나고 Pantic AI 링크를 얻으면
Stagehand를 사용해야 합니다.
자, 이제 실행되네요.
해당 페이지를 방문해야 하므로
Stagehand의 탐색 도구를 사용합니다.
이제 처리가 되고
결과가 돌아올 거예요.
그럼 다음 도구를 사용해 볼까요
모델 페이지를 찾았고
이제 스크린샷을 찍고 싶어하네요, 정말 멋지죠
브라우저 기반의 Stagehand는 정말 훌륭해요
UI로 들어가서
세션으로 가서 실행 중인 세션을 확인할 수 있고
보시다시피 지금
Pantic AI 모델 페이지에 있습니다
Claude로 돌아가서
이에 대해 질문할 수도 있어요
정말 멋지죠
이건 제가 사용할 수 있는
도구들의 일부 예시일 뿐이에요
이런 도구들을 함께 사용하는 게
얼마나 쉬운지 보세요
자, 지금까지 많은 내용을 다뤘네요
잠시 정리해 볼까요
지금까지 우리는
MCP에 대해 꽤 높은 수준으로 이해했습니다
무엇이고 왜 중요한지
어떻게 활용할 수 있는지, Claude 데스크톱으로 예시를 봤죠
Cursor 같은 다른 도구의
문서도 찾아볼 수 있습니다
분명 있을 거예요
설정 방법은 Claude 데스크톱과
매우 비슷할 것입니다. 이제는
MCP로 개발하는 방법을 살펴보겠습니다
우리만의 도구를 패키징할 서버를 만들 수 있고
클라이언트도 만들 수 있습니다
Pantic AI 같은 프레임워크로 AI 에이전트를 만들어서
MCP 서버의 에이전트 도구를 활용할 수 있죠
이 영상은 확실히 속성 과정이었고
높은 수준에서 필요한 것만
알려드렸습니다
그래서 MCP 개발 부분은
빠르게 넘어가려고 합니다만
댓글로 알려주세요
어떤 주제로 전용 영상을
자세히 다뤄주길 원하시는지
곧 MCP 관련 콘텐츠를
더 많이 만들 예정이거든요
MCP 서버 구축이나
n8n이나 Pantic AI와의 통합에 대해
자세히 다뤄보고 싶습니다
의견을 들려주세요
지금은 빠르게 훑어보고
시작할 수 있는 템플릿을 제공해서
직접 시작해보실 수 있게 하겠습니다
먼저 MCP 서버 구축에 대해 말씀드리겠습니다
이것도 앞으로 전용 영상으로
다룰 가능성이 매우 높습니다
문서에서 몇 가지 페이지를
빠르게 짚고 넘어가겠습니다
먼저 서버 개발자를 위한 섹션에서는
간단한 날씨 MCP 서버 구축 예제를
제공하고 있습니다
날씨 데이터를 다루는
몇 가지 도구가 있고
사용하고 싶은 SDK에 따라
파이썬 MCP 서버를 만들고 싶다면
이걸 확인해보세요
GitHub로 이동해서
원하는 특정 언어의
예제들을 볼 수 있습니다
여기엔 더 많은 정보가 있어요
지금은 자세히 다루지 않을 건데
제가 보여드리고 싶은
중요한 것은 LLM으로 MCP를 만드는 거예요
솔직히 말해서 바이브 코딩을
완전히 신뢰하진 않지만
우리 모두 AI 코딩 어시스턴트를
프로젝트 시작할 때 최소한
사용하고 있잖아요. 그래서 Claude는 MCP 문서에서
llm d.text를 방문하시면
여기서 볼 수 있는 것이
markdown 형식의 전체 MCP 문서입니다.
이것을 복사해서
선호하는 AI IDE에 붙여넣을 수 있죠.
예를 들어 Winsurf에
전체 내용을 붙여넣고
이를 활용해서 MCP 서버를 만들도록
요청할 수 있습니다.
예를 들어 Brave 서버를 만들 수도 있고
Winsurf 내에서
MCP 문서를 직접 참조할 수 있습니다.
다른 AI IDE에서도 가능할 것 같은데
Cursor에서도 될 거예요.
매우 강력하죠, 두 가지 옵션이 있습니다.
네, 이 문서를 사용해서
Brave로 웹 검색이 가능한 MCP 서버를 만들어볼게요.
자, 이렇게 실행하면
처리되는 동안 기다리면 됩니다.
문서를 전부 검토하고
코드를 생성할 거예요.
완성되면 다시 돌아오겠습니다.
보세요, 완전한 MCP 서버를 만들었네요.
코드를 자세히 살펴보진 않을 건데
지금 실행하진 않을 거예요.
간단히 보여드리고 싶어서요.
하지만 이건 정말
훌륭해 보입니다.
잘 작성된 MCP 서버로 보이네요.
이 변경사항들을 모두 수락하면
Brave 웹 검색용 도구가 있고
심지어 Brave의 여러 API 엔드포인트를
사용하는데 이게 정말 멋지네요.
Claude 데스크톱 설정 예제와 README도 있어요.
모든 것을 자동으로 만들어줬습니다.
이건 물론 Winsurf가 뛰어나서이기도 하지만
MCP 문서를 모두 활용해서
이걸 만들어냈다는 게 놀랍네요.
Brave는 단순한 데모 예제이고
아마 GitHub 저장소에 없는
뭔가를 만들고 싶으실 텐데
이미 사용 가능한 것 말고요.
나중에 전용 영상을 만들어서
처음부터 MCP 서버를 만드는 걸
기존에 없는 새로운 걸 만들어보려고 해요.
결국 MCP 서버가 없는
다양한 서비스들이 있고
때로는 정말 맞춤형 서버가 필요한데
여러 도구를 결합하거나
로컬 LLM과 연동하는 등
다양한 가능성이 있죠.
로컬에 설정된 LLM으로 작업하거나
가능성은 무한합니다.
다음으로 n8n을 살펴보겠습니다.
MCP 서버를 n8n AI 에이전트에
직접 통합할 수 있는데
최근에 개발된 커뮤니티 노드를 통해서죠.
GitHub 저장소 링크를
설명란에 넣어두었는데
설치 방법과
Brave MCP 서버와의 통합 예제가 있습니다.
제가 만든 것 중 하나를 실제로 사용했죠.
n8n으로 돌아가서
왼쪽 하단의 설정으로 가보면
자체 호스팅하거나
로컬에서 실행 중인 경우 작동하는데
커뮤니티 노드 탭으로 가서
설치를 클릭하고
nn-no-mcp를 입력해서 설치하면 됩니다.
저는 제 커스텀 버전이 있는데
나중에 메인 저장소에 PR을 할 수도 있어요.
아직은 완성도가 높지 않아서
아직 완성도가 높지 않은 노드라서
몇 가지 버그를 수정하고 있었어요.
나중에 이에 대한 영상도 만들 수 있을 것 같고요.
다시 에이전트로 돌아가서,
이러한 MCP 노드 중 하나에서는
기본 노드나 에이전트용 도구로 사용할 수 있는데
들어가서 사용하고 싶은
각 MCP 서버에 대한
자격 증명을 생성할 수 있습니다.
Claude 데스크톱이나 다른 앱들처럼
npx 같은 메인 명령어가 있고
인자값들과 환경 변수들이 있습니다.
이것들을 모두 설정하고 저장하면
이런 도구들을 모두 사용할 수 있죠.
도구들을 나열할 수 있고
MCP 서버의 프롬프트도 볼 수 있으며
도구를 실행할 수도 있습니다.
여기 Brave의 도구들을 나열하는 것이 있고
또 다른 하나는 Brave의 어떤 도구든
MCP 서버 내에서 실행할 수 있습니다.
설명란에 있는 이 템플릿을
자유롭게 다운로드해서
제가 어떻게 에이전트에게
이런 MCP 서버들과 작업하도록
프롬프트를 주었는지 확인해보세요.
Brave와 Convex 등 몇 가지 예시가 있는데
꽤 멋진 것 같아요.
이 채팅을 열어서
'일론 머스크의 순자산을 웹에서 검색해줘'라고 할 수 있죠.
이건 LLM이 혼자서는
절대 할 수 없는 일이에요.
보시다시피 먼저
웹 검색을 위한 Brave 도구들이
어떤 것들이 있는지 확인하고
웹 검색을 실행합니다.
자, 여기 순자산이 나왔네요.
3,230억 달러인데,
12월보다 1,000억 달러 이상 줄었다는게
아주 흥미롭네요.
마지막으로 보여드릴 구현은
Python에서 커스텀 MCP 클라이언트를 만들어
여기서 사용하는 Pantic AI 같은 프레임워크로
AI 에이전트를 만드는 방법입니다.
Python SDK 문서를 자세히 살펴보실 수 있고
이 템플릿도 다운로드 가능합니다.
MCP에서 몇 가지를 임포트하고
아래에서 연결하고자 하는
서버를 정의합니다.
그리고 에이전트 내에서 사용할
클라이언트 세션을 생성합니다.
제가 클라이언트로 하는 일은
이 헬퍼 함수를 사용해서
도구 목록을 수집하는 것입니다.
MCP를 호출해서
서버의 도구들을 가져오고
이를 모두 Pantic AI 도구 정의로
패키징합니다.
여기에는 설명과
도구의 인자값들이 포함되어 있고
이것을 Pantic AI 에이전트의
tools_to에 입력합니다.
마치 도구를 코드에서 정의하는 것처럼
tools.py나 다른 파일에서 하는 것과 같죠.
클라이언트를 설정하고
Pantic AI에서 사용하는 게 이렇게 쉽습니다.
Crew AI나
OpenAI SDK 같은 다른 프레임워크에서도
비슷하게 할 수 있습니다.
이제 터미널에서
평소처럼 Python 스크립트를 실행하고
에이전트와 대화할 수 있어요.
보시다시피
파일 시스템 서버가 로드되고 있습니다.
파일 디렉터리를 알려주고
'안녕'이라고 하면 도구를 사용하지 않고
일반적인 대화만 하지만
어떤 파일들이 있는지 물어보면
MCP 서버를 직접 호출해서
이 폴더에 있는 파일들을 알려줍니다
네, 정확한 답변이 나왔네요
그래서 저는 확실히
커스텀 AI 에이전트에 이러한 클라이언트를
통합하는 것에 대한 전용 영상을 만들고 싶습니다
댓글로 알려주세요
특별히 관심이 있으시다면
이 주제에 깊이 파고들 것 같거든요
지금까지 MCP에 대해
모든 것을 다뤘고, 마지막으로
중요한 점을 말씀드리고 싶은데
바로 모델 컨텍스트 프로토콜의
미래에 대해서입니다
가까운 미래에 누가 알겠습니까
더 나은 표준이 개발되어서
MCP가 구식이 될 수도 있죠
그럴 것 같지는 않지만
그렇게 되더라도
이 프로토콜을 깊이 이해하는 것이
중요합니다. Anthropic이
이것을 아주 잘 만들고 있거든요
앞으로 5년이나 10년 동안
어떤 표준이 주도하게 되든
이와 매우 비슷할 것이고
이러한 표준화에 익숙해지는 것이
LLM에 도구를 추가하는데 있어
우리에게 매우 중요합니다
이것은 우리가 얻고자 하는
더 높은 수준의 이해이기 때문이죠
개발자로서, 그리고
AI로 무언가를 만드는 사람으로서
Anthropic은 또한 놀라운 로드맵을 가지고 있습니다
MCP에 대한
훌륭한 비전을 가지고 있다고 생각합니다
에이전트를 위한 표준화의 왕좌로 만들려는
원격 MCP 지원을 보세요
지금까지는 모든 서버를
로컬에서 실행했지만
클라우드에서 실행하고
클라이언트들이 클라우드에 연결하고
인증과 권한 부여까지
MCP 서버의 수익화까지
분명히 가능할 것입니다
이것은 매우 중요하고
이런 에이전트 지원은
저를 열광하게 만듭니다
MCP로 복잡한 에이전트 워크플로우를 추가하고
MCP 서버로 직접 지원되는
서브 에이전트들, 계층적 에이전트 시스템
와, 정말 대단하죠
이 표준화에 구축할 수 있는
놀라운 것들이 많습니다
AI와 함께 이미 가능한 강력한 개념들을
에이전트 워크플로우와 고급 도구로
구현할 수 있지만
이것이 기술적 지식이 부족한 사람들도
훨씬 쉽게 접근할 수 있게 해주고
도구와 아이디어를 서로 공유할 수 있게
해준다는 점이 저를 흥분시킵니다
그래서 MCP와 관련된 모든 것에
깊이 파고들고 싶습니다
이 영상이 여러분에게
MCP를 높은 수준에서 이해하고
지금 바로 사용하는 데 필요한
모든 것을 전달했기를 바랍니다
다음 MCP 관련 영상에서
더 자세히 다루길 원하는 내용을
댓글로 알려주세요
자체 MCP 서버 만들기나
n8n 통합, 파이썬 AI 에이전트에
클라이언트 통합하기 등
더 깊이 다룰 수 있는 주제가 많습니다
이 콘텐츠가 도움이 되었고
AI 에이전트와 MCP에 대해 더 기대된다면
좋아요와 구독을 부탁드립니다
그럼 다음 영상에서
만나뵙겠습니다