MCP 서버 구축을 위한 유일무이한 가이드

채널 아이콘
AI LABS 구독자 10,300명

요약

이 영상은 mCP 서버의 기본 개념과 이를 활용해 자신만의 서버를 구축하는 방법을 안내합니다. 주요 내용으로는 Python SDK를 통한 설치 및 설정, 데코레이터를 사용한 간단한 함수 구현 예제, 그리고 AI 에이전트인 Cursor를 이용해 서버를 테스트하고 확장하는 방법을 다룹니다. 또한, GitHub의 README 문서를 활용한 문서 제공, 웹 크롤러 'Crawl for AI'를 통한 데이터 추출, 그리고 Figma API와 같은 외부 API와의 연동 사례도 소개됩니다. 전반적으로 mCP 서버의 원리와 실제 구현 방법을 쉽고 명확하게 전달하여 생산성 향상에 도움을 주는 내용입니다.

주요 키워드

mCP 서버 Python SDK Cursor 문서화 Crawl for AI Figma API 데코레이터 웹 크롤링

하이라이트

  • 🔑 mCP 서버의 기본 개념과 원리를 소개하며, 단순한 입력-출력 시스템으로 이해할 수 있음을 강조합니다.
  • ⚡️ Python SDK를 통해 mCP 서버를 손쉽게 설치하고, 데코레이터를 사용한 함수 구현 예제로 기초를 다집니다.
  • 🚀 Cursor 에이전트를 활용하여 서버를 등록하고 테스트하는 방법을 설명하며, 명령어와 설정 과정을 상세히 안내합니다.
  • 🌟 문서화 및 컨텍스트 확장을 위해 GitHub README 파일을 활용하는 방법과, 이를 AI 모델에 제공하는 절차를 소개합니다.
  • 📌 'Crawl for AI' 도구를 이용한 웹 크롤링 및 데이터 추출 과정을 설명하여, 외부 웹사이트의 정보를 쉽게 가져오는 방법을 제시합니다.
  • 🚀 Figma API 연동 사례를 통해 다양한 플랫폼의 API를 활용한 자동화 구현 방법을 보여주며, 서버 활용의 폭을 넓힙니다.

용어 설명

mCP 서버

모델 컨텍스트 프로토콜 서버(Model Context Protocol Server)의 약자로, AI 에이전트가 도구를 올바르게 사용하도록 지시하는 입력-출력 시스템을 의미합니다.

Python SDK

Python용 소프트웨어 개발 키트로, mCP 서버 구축과 관련된 라이브러리 및 도구들을 포함합니다.

Cursor

AI 에이전트를 관리하고, 도구를 등록 및 테스트할 수 있는 플랫폼으로, mCP 서버와 연동해 작업을 자동화합니다.

Crawl for AI

오픈 소스 웹 크롤러 및 데이터 추출 도구로, 웹사이트의 텍스트와 구조 정보를 AI 모델이 활용할 수 있는 형식으로 변환합니다.

Figma API

디자인 협업 도구인 Figma에서 제공하는 API로, 파일 데이터와 디자인 정보를 추출하여 활용할 수 있게 합니다.

[00:00:00] mCP 서버 개요 및 소개

영상의 첫 부분에서는 mCP 서버의 개념과 트렌드에 대해 소개합니다. 코딩에 대한 기본 지식 없이도 서버의 원리를 이해하고 활용하는 방법을 안내합니다.

MCP 서버가 트렌드로 등장한 이후 많은 구현 영상이 공개되었으며, 화자도 여러 영상을 제작했다고 소개합니다.
MCP 서버 구현과 설정 방법에 대해 설명할 것이며, 코딩 교육이 아닌 개념과 AI 활용 방법을 다룰 것임을 안내합니다.
[00:00:32] Python SDK 및 예제 설정

Python SDK의 GitHub 저장소와 설치 방법, 간단한 빠른 시작 가이드를 소개합니다. 데코레이터를 이용해 달러를 파운드로 변환하는 함수 구현 예제를 설명합니다.

모델 컨텍스트 프로토콜 문서를 소개하고, 다양한 프로그래밍 언어용 SDK 중 파이썬을 선택하여 진행합니다.
설치 가이드와 퀵 스타트 가이드를 통해 MCP 서버 구축의 기초를 설명하고, pip을 통한 설치 방법을 안내합니다.
[00:01:17] mCP 서버 등록 및 테스트

Cursor 내 설정에서 mCP 서버를 등록하는 방법과, 명령어를 통한 서버 추가 과정을 설명합니다. 등록 후 달러-파운드 변환 예제를 테스트하며 서버의 동작을 확인합니다.

MCP 클래스를 사용한 서버 생성과 달러를 파운드로 변환하는 함수 구현 과정을 설명합니다.
모델 컨텍스트의 역할과 중요성에 대해 설명하고, 이것이 도구 선택에 어떤 영향을 미치는지 설명합니다.
MCP 서버 설정 방법과 실제 구현 과정을 단계별로 보여주며, 테스트를 통해 기능 확인까지 진행합니다.
[00:03:02] 문서 제공 및 컨텍스트 확장

GitHub README 파일을 활용하여 AI 모델에 필요한 문서를 제공하는 과정을 설명합니다. 문서 링크를 Cursor의 Doc 섹션에 추가해 컨텍스트를 확장하는 방법을 안내합니다.

MCP 서버의 기본 작동 원리를 설명합니다. 함수가 입력을 처리하고 결과를 반환하면 채팅창에 표시되는 단순한 입출력 프로세스입니다.
SDK 문서 활용 방법을 설명합니다. 모든 문법을 배울 필요 없이 SDK의 문서를 제공하여 컨텍스트로 활용할 수 있습니다.
Cursor에 문서를 추가하는 방법을 설명합니다. README 파일의 주소를 가져와 문서 섹션에 추가하고 이름을 지정하면 됩니다.
[00:04:25] Crawl for AI를 활용한 웹 크롤링

웹 크롤러 'Crawl for AI'의 설치 및 사용법을 소개합니다. 지정된 URL의 데이터 추출 스크립트를 Cursor에 적용해 웹사이트의 텍스트와 일부 구조를 가져오는 과정을 설명합니다.

GitIngest 도구 사용법을 설명합니다. GitHub URL의 'hub'를 'nest'로 바꾸어 접속하면 저장소를 LLM 지식 베이스로 변환할 수 있습니다.
실제 예제로 Crawl for AI를 사용한 MCP 구현을 소개합니다. 오픈소스 웹 크롤러를 설치하고 기본 스크립트를 활용하는 방법을 설명합니다.
[00:05:28] API 연동 사례와 마무리

Figma API와 같은 외부 API와의 연동 사례를 통해, 자동으로 코드를 생성하는 방법을 보여줍니다. 영상을 마무리하며 mCP 서버를 활용한 생산성 향상 팁을 제공합니다.

AI 모델에 링크를 제공하면 함수를 통해 실행되어 결과를 마크다운 파일로 반환하는 방식이 설명됩니다.
Crawl for AI 웹 도구가 Cursor 에이전트에서 사용 가능하며, 같은 파일에서 작동하므로 주소 변경이 불필요합니다.
Cursor 웹사이트를 크롤링하여 각 섹션의 내용과 설명을 성공적으로 추출한 테스트 결과를 보여줍니다.
웹사이트의 텍스트는 추출되었지만 HTML 태그 등 전체 구조를 얻기 위해서는 추가 설정이나 문서 참조가 필요합니다.
로컬 도구 외에도 Figma API와 같은 API를 활용한 작업 방법이 소개됩니다.
이 접근 방식을 통해 로컬 도구나 API 엔드포인트를 활용하여 다양한 MCP 서버를 구현할 수 있습니다.
MCP 서버에 대해 계속 들어오셨을 텐데요
트렌드로 등장한 이후로
많은 구현 영상들을 보셨을 겁니다
제가 직접 많은 영상을 만들기도 했죠
오늘은 여러분께 실제로
MCP 서버를 구현하고
원하는 대로 설정하는 방법을 알려드리겠습니다
이것은 일반적인 튜토리얼이 아닙니다
코딩을 가르치지는 않을 거예요
대신 MCP 서버가
어떤 개념으로 작동하는지 설명하고
AI를 활용해서
적절한 컨텍스트를 제공하여
MCP 서버를 생성하는 방법을 알려드리겠습니다
그럼 시작해볼까요
여기 모델 컨텍스트 프로토콜의
문서가 있습니다. 보시면
파이썬, 타입스크립트, 자바,
코틀린 등 다양한 언어를 위한 SDK가 있습니다
여러분이 선호하거나 편한 언어를
선택하시면 됩니다
저는 파이썬 SDK로
진행하도록 하겠습니다
파이썬 SDK GitHub 리포지토리를 열어보면
설치 가이드 외에도
상당히 탄탄한 퀵 스타트 가이드가 있습니다
이 가이드는 MCP 서버 구축의 기초를 설명하며
이 기본 개념만 이해하시면
원하는 어떤 것이든 만들 수 있습니다
pip을 사용해서 설치할 수 있는데
터미널을 열고
이 명령어만 입력하시면
MCP 라이브러리가 설치됩니다
그 다음 Cursor로 이동해서
새 폴더를 만들고 파이썬 파일을 생성하세요
간단히 설명해드리면
새 파이썬 파일을 만들고
보시는 것처럼
라이브러리를 임포트했습니다
이 라이브러리는 MCP 클래스를 제공하는데
이를 사용해 MCP 서버를 생성했습니다
이 데코레이터를 사용해
달러를 파운드로 변환하는 함수를 정의했죠
이 함수는 제공된 소스에서
입력을 받아 처리하고 원하는 출력을 반환합니다
현재는 고정 환율을 사용해
변환된 금액을 반환하고 있습니다
여기 이 부분이
모델의 컨텍스트인데, 도구의 기능을
이해하는데 도움을 줍니다
도구의 설명이라고 생각하시면 됩니다
이 컨텍스트는 모델이
다양한 상황에서 어떤 도구를 사용할지
결정하는 데 도움을 줍니다
이것을 정의한 후에는
설정으로 가서 MCP 섹션으로 이동해
새 MCP 서버를 만들면 되는데
그전에 파일 경로를 복사하세요
MCP 메뉴에서 이름은
원하는 대로 지으시면 됩니다
우리의 첫 MCP라고 해볼까요
타입은 command로 그대로 두시고
실제 명령어는 MCP run 뒤에
파일 경로를 입력하시면 됩니다
추가를 클릭하면 도구가 추가되고
보시는 것처럼 달러를 파운드로
변환하는 도구가 성공적으로 추가되었습니다
이제 Cursor의 에이전트가 이를 사용할 수 있죠
한번 테스트해볼까요
에이전트를 열고 20달러를
파운드로 변환해달라고 요청해보겠습니다
이제 응답을 생성해보죠
MCP 도구를 사용하여
우리가 제공한 금액을 매개변수로 전달하고
호출하는 것을 확인할 수 있습니다
함수가 이를 처리하고 결과를 반환하면
그 결과가 채팅창에 표시됩니다.
이것이 MCP 서버가 작동하는 아주 기본적인 예시입니다.
본질적으로 이는 단순한 입력-출력
프로세스로 생각할 수 있으며,
도구를 효율적으로 구축하고 사용할 수 있게 해줍니다.
더 실용적인 구현으로 넘어가기 전에
한 가지 말씀드리고 싶은 것은, 실제로
이 모든 것을 직접 구축하거나 문법을 배울 필요가 없다는 점입니다.
사용하고 있는 SDK의 문서를 제공하여
컨텍스트를 제공할 수 있습니다.
그러면 문서는 어떻게 얻을 수 있을까요?
문서는 실제로 README 파일 안에 있습니다.
보시다시피 전체 README가 문서 역할을 합니다.
도구에 대한 문서 외에도
이미지 문서, 프롬프트, 리소스 등이 포함되어 있습니다.
이 문서를 Cursor에 제공하려면
먼저 문서로 추가해야 합니다. README 파일의 주소를 가져오세요.
전체 GitHub 저장소가 아닌
README 파일 자체의 주소인지 확인하세요.
전체 저장소는
유용하지 않고
컨텍스트 크기만 증가시킬 뿐입니다.
링크를 얻은 후에는 Cursor의
기능 섹션으로 가서
문서 섹션으로 스크롤을 내려 새 문서를 추가하세요.
링크를 붙여넣으면 인덱싱하고 저장합니다.
또한 이름을 지정해야 하는데,
예를 들어, 저는 이미 제 것을
'Python MCP SDK'라는 이름으로 추가했습니다.
이는 Cursor 내에서 컨텍스트를 제공하는 데 도움이 됩니다.
Composer에서 사용하려면 단순히 문서를 참조하고
추가한 문서를 선택하면 됩니다.
이후에는 해당 문서를 컨텍스트로 사용하여
무엇이든 구축할 수 있습니다. 만약
한 단계 더 나아가서
문서를 더욱 접근하기 쉽게 만들고 싶다면
학습이나 질문을 위해
LLM이 읽을 수 있는 데이터로 변환할 수 있습니다.
GitHub로 가서 URL의 'hub'를
'nest'로 바꾸면 GitIngest가 열립니다.
이는 정말 유용한 도구로,
GitHub 저장소나 적어도
지정한 부분을 LLM을 위한
완전한 지식 베이스로 변환해줍니다.
변환이 완료되면 출력을 복사해서
아무 LLM에나 제공하면 질문하거나
쉽게 학습할 수 있습니다. 자, 이제
기본 예제를 봤으니
더 유용한 것을 만들어보겠습니다.
오픈소스 웹 크롤러인 Crawl for AI를 사용하여
MCP를 만들어보겠습니다.
설치 방법은
여기 있고 정말 간단합니다.
시스템에 직접 설치하거나
가상 환경에 설치하면 됩니다.
패키지 충돌을 피하고 싶다면 가상 환경을 추천합니다.
앞서 말씀드렸듯이 이것은
튜토리얼이 아니라 AI를 활용해
작업을 수행하는 방법을 보여드리는 것입니다.
그들이 제공한 URL에서 데이터를 추출하는
간단한 스크립트가 있습니다.
이 스크립트를 Cursor에 붙여넣었고,
여기 있습니다. 먼저 제대로 작동하는지 확인했고,
확인 후에 Cursor에 이런 프롬프트를 주었습니다.
이 파일을 보고 함수를 가져와서
이미 MCP 구조가 있는
첫 번째 MCP 파일에 구현하도록 요청했습니다.
또한 MCP 구조를 가진 파일에
링크를 매개변수로 받도록 지시했습니다.
이는 곧
AI 모델에 링크를 제공하면
이 함수를 통해 실행되고
결과를 마크다운 파일로 반환합니다.
이렇게 얻은 추출된 데이터로
원하는 작업을 할 수 있습니다.
보시다시피 Crawl for AI 웹 도구가
Cursor 에이전트에서 사용 가능합니다.
같은 파일에 있기 때문에
주소를 변경할 필요가 없습니다.
테스트를 해보면, Cursor 웹사이트 링크를
제공하고 크롤링을 요청했더니
사이트의 섹션들을
나열해주었습니다.
각 섹션에 대한 간단한 설명과 함께
실제 출력을 살펴보겠습니다.
전달된 매개변수는
Cursor 웹사이트 링크였고
결과로 사이트의 구조와
내용을 모두 받았습니다.
웹사이트의 텍스트는 추출되었지만
HTML 태그나 다른 요소들과 같은
전체 구조는 받지 못했습니다.
이를 얻으려면 설정을 변경하거나
Crawl for AI 문서를 참조해야 합니다.
이렇게 하면 MCP 서버를 확장하여
단순히 웹사이트를 크롤링하는 것뿐만 아니라
정확한 복제에 필요한
데이터를 제공하여
랜딩 페이지 복제 과정을 거의 즉각적으로
처리할 수 있습니다.
지금까지 본 것은 제가 로컬에 설치한
도구를 사용한 것이지만
API로도 작업할 수 있습니다.
예를 들어, Figma API 문서가
여기 있는데, 특히 Get File 엔드포인트를
보면 설명되어 있습니다.
Figma 파일 URL에서
이 엔드포인트에 필요한 매개변수를
직접 추출하는 방법이 나와있습니다.
이것을 Cursor의 에이전트에 전달하면
자동으로 매개변수를 추출하는 코드를 생성하고
MCP 서버를 구현해 줍니다.
앞서 언급했듯이
이것을 단순한 입출력 시스템으로
생각하면 됩니다.
이 방식을 사용하면 거의 모든 것에 대해
MCP 서버를 만들 수 있습니다.
로컬 도구든 API 엔드포인트든 상관없이요.
생각해보세요.
API가 있는 모든 플랫폼을
에이전트로 제어할 수 있다는 건 정말 놀랍죠.
이 영상이 도움이 되었길 바랍니다.
이를 활용하여 자신만의 MCP 서버를 구현하고
생산성을 향상시킬 수 있습니다.
좋아요와 구독 눌러주시고
알림 설정도 해주시면
새 영상을 가장 먼저 보실 수 있습니다.