Gemini 2.5 Pro는 미친 듯이 좋습니다! - MCP 서버 구축 튜토리얼

채널 아이콘
All About AI 구독자 189,000명

요약

영상은 Google이 출시한 Gemini 2.5 Pro 모델을 활용해 MCP 서버를 구축하는 과정을 단계별로 설명합니다. 사용자는 다양한 문서 소스(Three.js, Open AI, 그리고 mCP Typescript SDK)를 벡터 스토어에 통합하여 최신 문서를 손쉽게 조회할 수 있도록 구성합니다. 또한, 실제 코딩 과정과 설정 오류 디버깅 과정을 통해 실전 개발 팁을 전달하며, 스폰서 Brilliant.org를 통해 AI 학습 자료에 대한 정보도 제공합니다. 마지막으로, 구축된 서버를 실제 질의에 활용하여 결과를 확인하는 모습과 앞으로의 활용 가능성을 언급합니다.

주요 키워드

Gemini 2.5 Pro MCP 서버 벡터 스토어 파일 검색 Three.js Open AI Node.js Brilliant.org API 키 IDE

하이라이트

  • 🚀 Gemini 2.5 Pro 모델을 이용하여 MCP 서버를 구축하는 새로운 워크플로우를 소개합니다.
  • 📌 다양한 문서(Three.js, Open AI, mCP SDK)를 벡터 스토어에 저장하여 최신 자료를 지속적으로 조회할 수 있도록 설정합니다.
  • ⚡️ Google AI Studio에서 Gemini 2.5 Pro를 선택하고, 실시간으로 코드를 생성 및 디버깅하는 과정을 자세하게 보여줍니다.
  • 🌟 Brilliant.org 스폰서십을 통해 AI 기초부터 심화까지 학습할 수 있는 인터랙티브 강좌를 추천합니다.
  • 📌 실제 터미널 작업과 코드 설정 과정을 통해 MCP 서버의 API 키, 벡터 스토어 ID 등 필수 환경설정을 함께 진행하는 모습을 담고 있습니다.

용어 설명

MCP 서버

Cursor와 연동되는 서버 환경으로, 문서나 코드 조각을 벡터 스토어에 저장해 활용할 수 있도록 구축된 시스템입니다.

벡터 스토어

문서의 텍스트를 일정 크기의 청크로 분할하여 저장하고, 검색 및 문맥 제공에 활용하는 데이터베이스입니다.

Gemini 2.5 Pro

Google이 실험적으로 출시한 최신 생성형 AI 모델로, 복잡한 코딩 및 문서 처리 작업에 활용됩니다.

파일 검색 (File Search)

Open AI 문서에서 필요한 정보를 검색하고 해당 결과를 벡터 스토어에서 추출하는 기능입니다.

[00:00:00] 소개 및 모델 언급

여행 중에도 Gemini 2.5 Pro 모델의 출시 소식을 소개하며, 이번 영상에서 MCP 서버 구축 튜토리얼을 진행할 것을 설명합니다.

[00:00:10] 서버 구축 개요

실제 MCP 서버 구축을 위한 기본 워크플로우를 개략적으로 설명하며, 필요한 문서 수집과 설정 방법을 안내합니다.

[00:01:00] Brilliant.org 스폰서 소개

Brilliant.org의 AI 학습 강좌를 소개하며, 인터랙티브 학습 방식과 AI 원리를 이해하는 데 도움을 주는 자료들을 추천합니다.

[00:02:27] 문서 수집 및 파일 준비

Three.js 문서, mCP Typescript SDK 및 Open AI의 파일 검색 관련 문서를 복사하여 텍스트 파일로 정리하는 과정을 보여줍니다.

[00:04:20] 벡터 스토어 설정

Open AI의 스토리지 인터페이스를 사용해 벡터 스토어를 생성, 청크 사이즈와 오버랩 설정 등 세부 옵션을 설정하는 모습을 담았습니다.

[00:05:55] 서버 개발 환경 설정

Node.js 기반으로 프로젝트 디렉토리 생성, 필요한 의존성 설치 및 파일 구조를 구성하는 과정을 단계별로 설명합니다.

[00:10:12] mCP 연결 설정

MCP 서버와 연동하기 위해 API 키와 벡터 스토어 ID를 설정하는 JSON 파일을 생성하고, Cursor 환경에서 이를 활성화하는 방법을 보여줍니다.

[00:11:39] 질의 테스트 및 결과 확인

‘How to create fog in 3js’라는 질의를 통해 벡터 스토어에서 검색된 문서 청크를 기반으로 결과를 받아 확인하는 과정을 시연합니다.

[00:13:00] 마무리 및 추가 기대

모델의 속도와 토큰 처리 성능, 그리고 향후 GPU 드로우 이벤트 등을 언급하며, 이번 튜토리얼의 실용성과 앞으로의 활용 가능성을 강조합니다.