AI로 100배 빠른 코드 작성하는 방법: 과대 광고 없이 (전체 과정 공개)

채널 아이콘
Cole Medin 구독자 78,300명

요약

이 영상은 AI 코딩 어시스턴트를 효과적으로 활용하여 개발 생산성을 극대화하는 전 과정을 소개합니다. 강연자는 체계적인 워크플로우와 명확한 지침, 골든 룰을 통해 LLM(대형언어모델)을 올바르게 사용하여 코드 생성을 최적화하는 방법을 설명합니다. 실무 예제로 Supabase MCP 서버 구축, Git을 통한 버전 관리, 그리고 Docker를 활용한 배포까지 모든 단계를 세세하게 다룹니다. 이러한 전략은 개발자가 AI 도구를 통해 오류를 줄이고 효율적으로 프로젝트를 진행할 수 있도록 돕습니다.

주요 키워드

AI 코딩 AI 코딩 어시스턴트 LLM 글로벌 규칙 MCP 서버 문서화 테스트 Git Docker 프로젝트 계획

하이라이트

  • 🔑 AI 코딩 어시스턴트의 중요성: 단순히 도구를 사용하는 것을 넘어, 체계적인 프로세스를 구축하는 것이 필수임을 강조합니다.
  • ⚡️ 문서화와 태스크 관리: 고수준의 마크다운 문서와 태스크 파일을 활용해 LLM에게 충분한 컨텍스트를 제공하는 방법을 설명합니다.
  • 🚀 골든 룰 설정: 파일 길이 제한, 새로운 대화 시작, 하나의 기능만 구현하는 등 LLM의 효율성을 극대화하는 규칙들을 공유합니다.
  • 🌟 실무 예제와 Git 통합: Supabase MCP 서버 구축을 통해 실제 코딩, 테스트, Git을 통한 버전 관리 과정을 상세히 안내합니다.
  • 📌 Docker를 활용한 배포: 최종적으로 컨테이너화 기술을 이용해 코드를 배포하는 방법을 보여주어, 전 과정을 완성합니다.
  • 🔄 여러 LLM과 도구의 통합 활용: Windsurf, Cursor, Global GPT 등 다양한 플랫폼을 활용한 AI 코딩 환경 구축법을 소개합니다.

용어 설명

AI 코딩 어시스턴트

인공지능을 활용하여 코드 작성과 디버깅을 지원하는 도구로, 개발 생산성을 크게 높입니다.

LLM (대형언어모델)

방대한 텍스트 데이터를 학습하여 자연어 처리와 코드 생성을 수행하는 인공지능 모델을 의미합니다.

MCP 서버

AI와 연동하여 추가적인 도구 및 기능(예: 웹 검색, 파일 시스템 접근 등)을 제공하는 서버로, 개발 환경을 확장하는 역할을 합니다.

글로벌 규칙

전체 AI 코딩 워크플로우에 일관되게 적용되는 명령어 집합으로, LLM이 항상 참고할 수 있는 시스템 프롬프트입니다.

RAG (Retrieval-Augmented Generation)

검색을 통해 외부 문서를 참조하여 답변을 생성하는 기법으로, 코드 문서화나 상세 정보 제공에 쓰입니다.

Git

분산 버전 관리 시스템으로, 코드의 버전을 관리하고 협업을 원활하게 해주는 핵심 도구입니다.

Docker

애플리케이션을 컨테이너 형태로 패키징하여 환경에 구애받지 않고 배포할 수 있도록 하는 오픈소스 플랫폼입니다.

[00:00:00] 입문 및 문제 인식

AI 코딩 어시스턴트가 개발에서 필수적인 도구임을 소개합니다. 기존 방식의 한계와 AI를 활용할 필요성을 강조합니다.

AI 코딩 어시스턴트의 중요성을 강조하며, 효과적인 사용법이 필요함을 설명합니다. AI IDE를 무작정 사용하면 좋지 않은 결과가 나올 수 있다고 경고합니다.
AI 코딩을 위한 잘 정의된 프로세스의 필요성을 강조하며, 이를 통해 생산성을 10배에서 100배까지 높일 수 있다고 설명합니다.
[00:00:40] 골든 룰 설정

고수준 문서화, 파일 길이 제한, 명확한 요청 등 LLM을 효율적으로 활용하기 위한 기본 규칙들을 설명합니다. 테스트와 환경 변수 관리의 중요성도 함께 다룹니다.

영상에서 다룰 세 가지 주요 약속을 소개합니다: 단순한 설정, 실용적인 프로젝트 구현, 범용적인 프로세스 적용을 약속합니다.
dynamis.ai 커뮤니티를 소개하고, 더 깊은 수준의 AI 학습과 커뮤니티 참여 기회를 제공합니다.
구글 문서를 통해 AI 코딩 프로세스의 전체적인 구조와 황금률을 소개하기 시작합니다.
AI 프로젝트 관리를 위한 문서화 시스템 소개. 설치 지침, 문서화, 계획 및 작업 관리에 대한 가이드라인을 LLM에 제공하는 방법 설명.
LLM 사용시 주의사항: 코드 파일은 500줄 이하로 유지하고, 대화는 자주 새로 시작하며, 한 번에 하나의 기능만 요청하는 것이 효과적.
코드 품질 관리: 각 기능 구현 후 테스트 코드 작성의 중요성과 구체적인 요구사항 명시의 필요성 강조.
문서화와 보안: 지속적인 문서 업데이트의 중요성과 환경 변수 및 보안 관련 사항은 직접 관리해야 함을 강조.
실제 사례: Cursor를 사용한 SaaS 개발자가 AI에 과도하게 의존하여 보안 문제가 발생한 교훈적인 사례 공유.
AI가 생성한 코드의 보안 관련 사항에 대해 개발자가 직접 이해하고 확인해야 함을 강조합니다. 감으로 코딩하는 것은 권장하지 않으며, 프로젝트의 보안을 반드시 확인해야 합니다.
프로젝트 시작 전 planning.md와 task.md 파일을 먼저 생성하여 상위 수준의 방향성을 설정합니다. planning 문서에는 비전, 아키텍처, 제약사항 등 상위 수준의 정보를 포함합니다.
[00:06:00] 프로젝트 계획 및 태스크 관리

프로젝트 시작 전 마크다운 문서와 태스크 파일을 생성해 명확한 방향성을 설정하는 방법을 안내합니다. AI와의 원활한 대화를 위한 기초 자료를 구성합니다.

task.md 파일에서는 완료된 작업과 할 일을 추적하며, LLM이 작업을 관리할 수 있게 합니다. 이를 통해 개발자가 AI 코딩 어시스턴트의 프로젝트 관리자 역할을 수행합니다.
Claw Desktop과 같은 챗봇을 사용하여 Supabase MCP 서버를 위한 파일들을 생성하는 과정을 설명하고, Brave API를 활용한 예시를 제시합니다.
AI 코딩 어시스턴트로 생성된 계획 파일과 작업 파일을 디렉토리에서 확인하고, Windsurf나 다른 AI 코딩 도구로 열어볼 수 있다고 설명합니다.
생성된 계획 파일에는 프로젝트 개요, 범위, 기술 아키텍처, 기술 스택 등이 포함되어 있으며, 이를 AI 코딩 어시스턴트의 컨텍스트로 활용할 수 있습니다.
태스크 파일에는 AI가 설정한 작업들이 나열되어 있으며, 이를 하나씩 수행하면서 필요한 경우 새로운 작업을 추가할 수 있습니다.
프로젝트 계획 시 단일 LLM이 아닌 여러 대규모 언어 모델을 활용하여 더 나은 결과를 얻을 수 있다고 조언합니다.
Global GPT를 소개하며, 다양한 LLM과 도구들을 합리적인 가격으로 이용할 수 있는 장점을 설명합니다.
Global GPT의 인터페이스와 기능을 소개하고, 프로젝트 계획에 활용할 것을 추천합니다.
프로젝트 계획에 대한 마지막 팁을 공유하고 다음 단계인 글로벌 규칙으로 넘어갈 것을 안내합니다.
AI 코딩 어시스턴트를 위한 시스템 프롬프트로서의 글로벌 규칙을 소개하고, 상위 수준 지침을 설정하는 방법을 설명합니다.
새 대화 시작시 계획 파일 자동 읽기, 테스트 작성 등의 글로벌 규칙 예시를 설명하며 이를 통한 작업 효율성 향상을 강조합니다.
Warp IDE에서 글로벌 규칙을 설정하는 구체적인 방법을 단계별로 설명합니다.
작업공간별 규칙 사용을 추천하며, 프로젝트별 기술 스택에 따른 규칙 설정의 장점을 설명합니다.
코드 길이 제한, 테스트 작성, 문서화 등 구체적인 글로벌 규칙 예시를 제시합니다.
[00:13:00] 글로벌 규칙 및 환경 구성

전체 프로젝트에 적용되는 글로벌 규칙을 설정해 AI 코딩 어시스턴트의 행동 지침으로 삼습니다. 다양한 AI IDE 환경에서의 설정 방법과 연결성을 다룹니다.

글로벌 규칙의 마지막 부분으로 AI를 돕기 위한 기타 규칙들을 추가하고, 이를 통해 LLM에 대한 프롬프트를 단순화할 수 있습니다.
MCP 서버 구성 단계로 넘어가며, MCP는 AI IDE에 웹 검색 등 추가 도구를 제공하는 방법입니다.
핵심적으로 사용되는 세 가지 MCP 서버와 각각의 설치 방법, 설정 가이드에 대해 설명합니다.
첫 번째 핵심 서버는 파일 시스템 서버로, 프로젝트 폴더 외의 다른 폴더들과도 상호작용이 가능하게 합니다.
두 번째로 Brave API를 활용한 웹 검색 기능은 AI를 통해 검색 결과를 효과적으로 요약해 제공합니다.
마지막으로 Git 서버를 통해 버전 관리와 백업이 가능하며, 이는 AI와 작업할 때 특히 중요합니다.
Git의 중요성과 백업의 필요성에 대해 설명합니다. 프로젝트가 망가졌을 때 이전 상태로 복구할 수 있는 Git의 역할을 강조합니다.
AI IDE의 메모리 기능과 RAG 구현에 대해 설명합니다. Windsurf의 메모리 관리 기능과 Quadrant MCP 서버 같은 도구들을 소개합니다.
Windsurf의 MCP 설정 방법과 통합된 도구들(파일 시스템, Brave 검색, Git, Archon)에 대해 설명합니다.
AI IDE에서 초기 프롬프트의 중요성을 강조하며, 구체적이고 상세한 프롬프트 작성의 필요성을 설명합니다.
AI IDE에서 문서와 예시를 제공하는 세 가지 방법을 소개합니다. Windsurf의 @MCP 기능과 RAG 시스템 활용법을 설명합니다.
[00:20:00] MCP 서버 구현 및 테스트

Supabase MCP 서버 구축을 예제로 실제 코딩 과정, Git 통합, 자동 테스트 생성 과정을 상세히 시연합니다. 코드 생성 후 단계별 검증을 통해 품질을 확보합니다.

타임라인 정보가 없습니다.

[00:27:00] 배포 및 프로젝트 마무리

Docker를 사용해 컨테이너로 패키징하고, 최종적으로 프로젝트를 배포하는 과정을 설명합니다. 이후 문서화와 반복적인 개선 작업의 중요성을 강조합니다.

타임라인 정보가 없습니다.

여러분도 아시다시피 AI 코딩 어시스턴트를
사용하지 않으면 뒤처질 수밖에 없습니다.
어떤 개발을 하든 상관없이
하지만 대부분의 사람들이 모르는 것은
이러한 AI 코딩 어시스턴트를
효과적으로 사용하는 방법입니다. 물론
원하는 것을 마음대로
WindSurf나 Cursor 같은 AI IDE에 던져넣으면
때때로 좋은 결과를 얻을 수도 있지만
명확한 작업 프로세스가 없다면
항상 그런 결과를 얻을 수는 없죠.
그리고 정말 짜증나는 것은
LLM이 시니어 소프트웨어 엔지니어에서
마치 키보드를 마구 두드리는
원숭이 무리처럼 변해버려서
코드의 일부를 삭제하고
원하지도 않는 기능을
구현하는 경우죠. 여러분도 그 고통을 아실 거예요.
AI로 코딩할 때는
높은 품질의 결과물을 원한다면
잘 정의된 프로세스가 꼭 필요하고
아직 그런 정제된 프로세스가
없다면, 이 영상이 끝날 때쯤에는
AI 개발의 새로운 차원을
경험하게 될 것임을 약속드립니다.
제가 제 전체 워크플로우를
단계별로 자세히 설명해드리면서
세부적인 내용까지 다룰 거니까
제 프로세스를 그대로 따라하면 생산성을 10배, 심지어 100배까지
높일 수 있을 겁니다.
여러분의 시간을 가치있게 만들기 위해
세 가지를 약속드리겠습니다.
첫 번째는 많은 사람들이
AI 설정을 복잡하게 만드는 것을 보는데
우리는 그러지 않을 거라는 점입니다.
두 번째로
장난감 같은 프로젝트가 아니라
이 워크플로우를 사용해서 실용적이고
완전한 Supabase MCP 서버를 만들 겁니다.
이건 이 영상에서 더 자세히 다룰 거구요.
세 번째는
이 프로세스가 여러분이
어떤 개발을 하든,
어떤 AI IDE를 사용하든 잘 작동할 거라는 점입니다.
마지막으로 정말 빠르게,
AI 코딩 워크플로우뿐만 아니라
AI 스킬 전반을 향상시키고 싶다면
제가 완벽한 것을 준비했습니다.
dynamis.ai를 확인해보세요.
제가 방금 론칭한 독점 커뮤니티인데
여기서는 제가 유튜브에서 공유하는
전문성을 훨씬 더 깊은 수준으로
코스, 라이브 워크숍, 주간 세션,
일일 지원을 통해 전달하고
가장 좋은 점은 다른
얼리 AI 어답터들과 함께하는 커뮤니티입니다.
링크를 확인하고 대기자 명단에 등록하세요.
자, 이제 AI로 코딩하는
전체 프로세스를 살펴보겠습니다.
지금 보시는 것은 구글 문서인데
이 영상의 설명란에 링크를 달아두었고
AI로 코딩하는 제 전체 프로세스가 담겨있습니다.
여러분도 참고자료로 사용하시면 좋겠고
이 영상 전체에서 계속
참조할 예정입니다.
이게 바로 우리의 완전한
프로세스이기 때문이죠. 먼저 최상단의
황금률부터 시작하겠습니다.
이것들을 빠르게 살펴보고
이 규칙들이 우리의 나머지 프로세스를
어떻게 좌우하는지 보겠습니다.
2단계부터 실제 프로젝트를 시작할 건데
첫 번째 황금률이 정말
중요합니다. 우리는 이런 상위 레벨의
마크다운 문서들을 사용할 겁니다.
설치 관련 지침을
문서화, 기획, 작업 지시에 사용하고,
이를 통해 LLM에 맥락을 제공합니다.
우리는 프로젝트를 진행하면서
AI의 도움을 받아 이러한 문서들을
만들고 관리할 것입니다.
그 다음 세 가지 규칙은 모두
LLM에 과부하를 주지 않는 것에 관한 것입니다.
LLM에 제공하는 맥락이 길수록
환각 현상이 발생할 가능성이 높아지기 때문에
예를 들어, 모든 코드 파일을
500줄 이하로 유지해야 하고
대화를 자주 새로 시작해야 합니다.
긴 대화는 LLM의 성능을
저하시킬 수 있기 때문입니다.
또한 한 번에 너무 많은 작업을
요청하지 않아야 합니다.
실제로 저는 보통
한 번의 프롬프트에 하나의 새로운 기능이나
구현을 요청하는 것이 가장 좋다고 생각합니다.
파일이 길거나 대화가 길어지고
많은 것을 동시에 요청할 때
좋지 않은 결과가 나옵니다.
이런 경우에는
어떤 LLM이나 AI IDE를 사용하더라도
형편없는 결과가 나오게 됩니다.
또한 대부분의 사람들이 테스트를 좋아하진 않지만
AI에게 코드 테스트를 작성하도록 요청하는 것이
매우 중요합니다. 이상적으로는
새로운 기능을 구현할 때마다
테스트를 작성해야 하며
이를 통해 일관된 결과를 얻을 수 있습니다.
또한 요청 사항을 구체적으로 명시해야 하는데
이 부분에서는 오히려
약간의 추가 맥락을 제공하는 것이 좋습니다.
LLM에 과부하를 주지 않으면서도
자체적인 판단에만 맡기지 않고
원하는 바를 매우 구체적으로
설명해야 합니다.
단순히 고수준에서
만들고 싶은 것을 설명하는 것이 아니라
사용하고 싶은 기술,
라이브러리, 원하는 출력 형태 등
세부 사항까지 구체적으로 설명하면
매우 도움이 됩니다.
마지막 두 가지 규칙은
문서와 주석을 작성하면서 진행하는 것입니다.
LLM이 지속적으로 문서를 업데이트하도록
상위 수준의 핵심 파일뿐만 아니라
코드의 주석도 함께 작성해야 합니다.
이는 여러분이 코드를 이해하는 데도 도움이 되고
LLM이 나중에 이 파일들을 참조할 때도
도움이 됩니다.
그리고 마지막으로
환경 변수는 직접 구현해야 합니다.
API 키나 데이터베이스 보안과 관련해서는
LLM을 신뢰하지 마세요.
이와 관련된 모든 것들은
이 사람처럼 되고 싶지 않다면요.
이 링크를 넣은 이유는
매우 재미있는 사례라고 생각해서입니다.
AI에 과도하게 의존했을 때
심각한 문제가 발생한 예시죠. 이 사람은 Cursor로
SaaS를 전부 만들었고 코딩을 직접 하지 않았습니다.
3월 15일에는 신이 나서
"AI는 이제 단순한 도우미가 아니라
개발자다"라고 했지만
이틀 후에 해킹을 당했습니다.
이상한 일들이 발생하고 API 키 사용량이 폭증하고
구독 우회가 발생했는데
아마도 데이터베이스 보안이
제대로 설정되지 않았기 때문일 겁니다.
AI에게 환경 변수와
보안 관리를 맡겼기 때문에 이런 일이 발생했죠.
데이터베이스 보안과 관련된 모든 것,
보안과 관련된 모든 사항에 대해
직접 이해하고 있어야 하며,
AI가 생성하는 모든 코드를
이해해야 합니다. 저는 일반적으로
감으로 코딩하는 것을 추천하지 않지만,
설령 그렇게 하더라도
최소한 프로젝트가 안전한지
반드시 확인해야 합니다. 이것은
매우 중요합니다. 이러한
핵심 규칙들은 이 문서
전반에 걸쳐 계속 나올 것입니다.
이제 프로젝트 계획부터 시작해보겠습니다.
계획 단계는 매우 간단합니다.
우리는 planning과 task 파일을
생성할 것이며, 이는
코딩을 시작하기 전에
먼저 해야 합니다. 왜냐하면
코드를 작성하기 전에
상위 수준의 방향성을 가져야 하기 때문입니다.
planning 문서에는
상위 수준의 비전,
아키텍처, 제약 사항 등
모든 상위 수준의 정보가 포함되며,
이를 LLM에 컨텍스트로 제공합니다.
우리는 AI 코딩 어시스턴트에게
전체 프로세스 동안
이 파일을 참조하도록 할 수 있는데,
특히 새로운 대화를
시작할 때 유용합니다.
이를 통해 AI가
우리 프로젝트에서 하고 있는 일을
빠르게 파악할 수 있어,
다른 코드 파일을 분석할 필요가 없습니다.
그리고 조금 더 낮은 수준에서
task.md 파일이 있는데, 여기서는
완료된 작업과 해야 할 작업을
모두 추적합니다. 대화 과정에서
LLM이 새로운 작업을 추가하고
업데이트하거나 삭제하고 완료 표시를 할 수 있습니다.
이 모든 것이 가능합니다.
이를 통해 우리가
AI 코딩 어시스턴트의
프로젝트 관리자가 될 수 있으며,
이는 AI의 모든 작업을 지시하기 위해
중요합니다. 이것은 우리가
그 일을 잘 수행하고 AI 코딩
어시스턴트가 도움을 주는데 필요한
리소스입니다. 이러한 파일들을
생성할 때 보통 AI IDE를 사용하지 않고
Claw Desktop과 같은 챗봇을 사용합니다.
여기 Supabase MCP 서버를 위한
샘플 프롬프트가 있습니다.
우리는 MCP를 커넥터로 사용하여
Claw Desktop이나 자체 AI 에이전트와 같은
앱을 사용할 수 있게 하여
Supabase에 연결하고
데이터베이스 작업을 수행할 도구를 제공합니다.
이 계획을 위해
Brave API를 사용하도록 지시했는데,
이미 Brave MCP 서버가 설정되어 있기 때문입니다.
이 영상의 범위를 벗어나므로
자세한 내용은 다루지 않겠지만,
이것은 planning.md와 task.md 파일을
매우 빠르게 생성하는
예시로 사용하시면 됩니다.
이 프롬프트를 보내면
웹 검색을 수행할 것이므로
허용하고 기다리면
두 파일이 모두 생성될 때까지
기다리면 됩니다. Claw Desktop이
두 파일을 모두 생성했고,
파일 시스템에 직접 생성했습니다.
MCP 서버가 있기 때문입니다.
여기 이 디렉토리에 생성했으니까
Windsurf로 열어볼 수 있습니다. 참고로
어떤 AI 코딩 어시스턴트든 사용할 수 있어요
제가 Windsurf를 사용하고 있지만
이는 Cursor, ClientRoot, Code 등
어떤 것을 사용해도 상관없습니다
이 프로세스는 모든 도구에 적용되거든요
여기 계획 파일이 있는데
미리보기를 열어서 살펴보겠습니다
개요가 있고, 프로젝트 범위,
기술 아키텍처, 기술 스택이 있네요
이 모든 정보들을
AI 코딩 어시스턴트에게 컨텍스트로 제공해서
프로젝트를 시작할 때
올바른 방향으로 시작할 수 있도록
도와줄 수 있습니다
물론 이 문서가 완벽하진 않아요
'MCP가 무엇인가'와 '슈퍼베이스가 무엇인가' 같은
섹션은 사실 필요없죠
그래서 이것을 오프카메라로 수정하고
지루한 세부사항은 생략하겠습니다
하지만 이는 좋은 시작점이고
보통은 이걸 많이 반복해서
챗봇이나 작업 중인 곳에서
파일을 개선해 나가야 합니다
태스크 파일도 있는데
이것도 미리보기로 열어보면
AI가 설정해준 다양한 작업들이 있고
AI 코딩 어시스턴트가 이것들을
하나씩 처리해 나갈 거예요
필요한 경우 새로운 작업도 추가하면서요
사실 이건 좀 과하게 만들어졌네요
그래서 다시 한번 말씀드리지만
이런 것들은 반복해서 개선해야 해요
이 정도로 많은 태스크가 필요하진 않거든요
하지만 좋은 시작점이라고 할 수 있죠
계획 단계에서 마지막 팁을 하나 드리자면
제가 자주 하는 방법인데
Claude같은 단일 LLM만 사용하는 대신
여러 대규모 언어 모델을 활용해서
프로젝트 계획을 세웁니다
똑같은 프롬프트를 각각에게 주고
마지막에 모든 결과를 통합하죠
여기서 핵심은 좋은 플랫폼이 필요한데
한 곳에서
여러 LLM을 사용할 수 있으면서
구독료를 여러 번 내지 않아도 되는
플랫폼이 필요합니다
다양한 앱들이 있지만
제가 자주 사용하고
이 영상의 스폰서이기도 한
Global GPT를 추천드립니다
가격이 매우 합리적이고
무료로 시작할 수 있으면서
Deepseek, O3, Claude 같은 최고의 LLM들을
모두 이용할 수 있어요
Deep Research나 Perplexity 같은 도구들도
포함되어 있어서 계획 단계에서
더 깊이 있는 리서치가 필요하다면
Global GPT로 가능합니다
다른 도구들도 많은데
Ideogram이나 Midjourney로
프로젝트의 에셋을
계획하고 싶다면 그것도 가능해요
인터페이스는
방금 본 Claude Desktop과 매우 유사하지만
다양한 LLM에 쉽게 접근할 수 있고
심층 리서치도 할 수 있어서
정말 좋습니다
프로젝트 계획을 깊이 있게 하고 싶다면
이런 플랫폼을 꼭 사용해보세요
설명란에 Global GPT 링크를 남겨두었으니
한번 확인해보시는 걸 추천드립니다
정말 추천하는 도구예요
마지막으로 프로젝트 계획에 대해
빠르게 한 가지 팁을 더 드리고 싶습니다.
이제 다음 단계로 넘어가보겠습니다.
계획과 작업이 완료되었으니
이제 글로벌 규칙으로 넘어갈 시간입니다.
이것은 AI 코딩 어시스턴트를 위한 시스템 프롬프트입니다.
AI 코딩 어시스턴트에게 전달할
모든 상위 수준의 지침을
글로벌 규칙에서 정의합니다.
이렇게 하면 매번 명시적으로
입력할 필요가 없습니다.
예를 들어, 우리의 글로벌 규칙에서
'새로운 대화 시작시 항상 계획 파일을 읽으라'고
설정할 수 있습니다.
이렇게 하면 대화를 시작할 때
명시적으로 요청할 필요 없이
자동으로 실행되어 시간을 절약할 수 있죠.
다양한 요청에서 반복되는
타이핑을 줄일 수 있습니다.
'이것을 구현하고 테스트를 작성하고
작업을 체크오프 해주세요'라고 매번 말하는 대신
글로벌 규칙에서 한 번만 설정하면 됩니다.
'작업을 확인하고 새로운 기능에 대한
테스트를 작성하라'는 식으로요.
이제 이 모든 것이 LLM에 대한
시스템 프롬프트가 되었습니다.
제가 AI 코딩 어시스턴트에 설정한
글로벌 규칙입니다.
여러분도 이것을 사용하고
기술 스택과 요구사항에 맞게
수정할 수 있습니다.
이것은 정말 좋은 시작점이 될 것이고
더 나아가서
가장 인기 있는 4개의 AI IDE에 대한
설정 방법도 포함되어 있습니다.
구체적으로 보여드리겠습니다.
Warp에서 어떻게 하는지
이 영상에서 사용 중인 AI IDE로
보여드리겠습니다. 이것을 복사하고
Warp로 가서
우측 상단의 추가 옵션에서
'메모리 관리'를 클릭합니다.
여기서 글로벌 규칙을 설정할 수 있는데,
이는 모든 디렉토리에 적용됩니다.
그리고 작업공간별 규칙이 있어서
현재 프로젝트에만 적용되는
규칙을 설정할 수 있습니다.
보통은 작업공간 규칙을 추천하는데,
그 이유는 사용하는 기술들이
프로젝트마다 다르기 때문입니다.
따라서 작업공간 규칙을
사용하는 것이 좋습니다.
작업공간 규칙으로 가서
Google 문서에서 복사한 내용을
그대로 붙여넣을 수 있습니다.
그리고 다른 마크다운 파일처럼
미리보기를 열어서
AI 코딩 어시스턴트에 대한
규칙이 설정된 것을 확인할 수 있습니다.
우리는 AI에게 이러한 다양한
마크다운 파일을 어떻게 사용할지 알려주고
매번 계획을 확인하고 작업을 표시하라고
요청할 필요 없이
오른쪽 프롬프트에서
이 파일들과 작업하는 방법을
알 수 있게 됩니다.
그리고 500줄을 넘지 않게
파일을 만드는 것과 같은 황금률도 알려주고
각 기능에 대한 테스트 작성도 지시하며
스타일 가이드라인도 제공합니다.
코드를 깔끔하게 작성하도록
하고 README 파일 작업 방법도
알려주어 문서화를
유지할 수 있게 합니다.
그리고 하단에는 AI를 돕기 위한
여러 가지 기타 규칙들을
포함시키는 것을 선호합니다. 이것이
전체적인 규칙이며, 이제 우리는
LLM에 대한 프롬프트를 간단하게
유지할 수 있습니다. 왜냐하면
AI가 수행해야 할 다양한 작업들이
있고 이를 따르도록 해야 하지만
매번 요청할 필요가 없기 때문입니다
이것이 글로벌 규칙의 중요한 점이죠
글로벌 규칙 설정은
몇 분이면 충분할 것입니다. 이제
MCP 서버 구성으로 넘어갈 수 있습니다
MCP에 익숙하지 않으시다면
위에 링크한 영상을
확인해보시기를 추천드립니다
간단히 말하면 AI IDE에
더 많은 도구를 제공하는 방법입니다
Brave를 통한 웹 검색과 같은
기능을 수행할 수 있죠. 제가 항상 사용하는
세 가지 핵심 서버가 있는데
곧 설명해드리겠습니다. 각각의
설치 링크가 있고
다양한 AI IDE에서 MCP를
설정하는 방법과 함께
다른 MCP 서버 목록 링크도 있습니다
여기서 원하는 다른
서버들을 다운로드할 수 있고
각 링크를 클릭하면
AI IDE 내에서 정확한 설정 방법을
확인할 수 있습니다. 구성 설정에 대한
안내가 제공됩니다. 제가 항상 사용하는
세 가지 핵심 서버에 대해 설명하자면
AI IDE가 파일 시스템과
상호작용할 수 있기를 원합니다. 현재 프로젝트뿐만 아니라
컴퓨터의 다른 폴더들과도 상호작용이 가능해야 합니다
예를 들어 이미지 폴더가 있다면
프로젝트에 필요한 에셋을
가져올 수 있어야 하고
이전 프로젝트를 참조하여
이전에 어떻게 구현했는지 확인할 수 있어야 합니다
이 모든 것이 파일 시스템
서버가 있으면 가능합니다. 또한
AI IDE가 웹 검색을 할 수 있기를 원합니다
일부 AI IDE에는 웹 검색 기능이 내장되어 있지만
Brave API는 매우 강력한 기능을 제공합니다
내부적으로 AI를 사용하여
다양한 웹 검색 결과를
요약해주기 때문에
매우 강력한 출력을 얻을 수 있습니다
이를 통해
사용 중인 도구, 라이브러리
프레임워크의 문서를 가져올 수 있고
마지막으로 제가 자주 사용하는 것은
Git입니다. Git을 사용하는 이유는
모든 프로젝트를
Git 저장소로 설정해야
버전 관리가 가능하고 프로젝트
백업을 관리할 수 있으며
다양한 버전을 저장할 수 있기 때문입니다
Git MCP 서버를 사용하면
여기 예시 프롬프트처럼
'현재 상태가 마음에 들고
추가 기능을 구현하기 전에
현재 상태를 백업하고 싶으니
현재 상태를 저장하기 위해
git commit을 해주세요'라고 요청할 수 있습니다
그리고 이것은
정말 강력히 추천드리는 방법입니다
때로는 AI IDE에 5번이나 10번의
요청을 보내 여러 기능을 구현하다가
5번 전 요청에서
프로젝트가 완전히 망가진 것을
깨달을 수 있기 때문에 백업이 있다면
작업 중간중간 백업해두면
정상 상태로 복구할 수 있습니다. 그렇지 않으면
프로젝트가 완전히 망가진 상태에
빠질 수 있는데
너무 많이 진행되어서
돌아갈 수 없게 됩니다. Git이 이런 상황의 구원자죠
이것이 제가 이 서버를 매우 좋아하는 이유입니다
그리고 만약
장기 메모리가 필요하다면
AI IDE 내에서 RAG를 구현할 수 있고
다른 많은 도구들이 있습니다. 예를 들어
Quadrant MCP 서버가 있죠
자세히 설명하진 않겠지만, 많은 AI IDE들은
Windsurf처럼 이미 메모리 기능이 있어서
여기서 메모리를 관리할 수 있고
자동으로 생성해줍니다. 지금은
빈 상태이지만, 원하면
프로젝트 간에 메모리를
추적하도록 요청할 수 있습니다
이런 기능이 필요 없을 수도 있지만
MCP 서버들은 여전히 훌륭합니다. 자, 이제
이것들을 모두 설정했으니, Windsurf로
돌아가서 설정을 열어보겠습니다
여기 MCP 설정을 클릭하면
MCP config.json이 있습니다
보시다시피 파일 시스템, Brave 검색, Git이 있고
이 영상의 범위를 벗어나지만
제가 만든 AI 에이전트 빌더인
Archon도 Windsurf에
통합되어 있습니다. 이 모든 서버들은
여기 문서에 설명된 대로
따라하면 됩니다
MCP를 설정하고 나서
제가 설명한 대로 프로젝트에서 활용하면
많은 도움이 될 것입니다
이제 AI IDE에 초기 프롬프트를
입력할 시간입니다. 우리는 MCP 서버를
설정했고, 전역 규칙도 설정했으며
계획과 작업 문서도
만들어두었습니다
여기서 강조하고 싶은 점은
이런 문서들이 있더라도
AI에 상위 수준의 세부 사항을 제공하지만
초기 프롬프트는 매우 구체적이어야 합니다
왜냐하면 이것이
프로젝트의 전체 시작점을 결정하기 때문이며
이것이 바로
우리의 황금률 중 하나입니다
원하는 바를 매우 상세하게 설명하는 것이
프로젝트에 따라 다양한
의미를 가질 수 있지만, 핵심 조언은
AI에 많은 문서와
예시를 제공하라는 것입니다
예시와 문서를 제공하는
방법에는 세 가지가 있습니다
첫 번째는 많은 AI IDE들이
문서를 가져오는 기능이
내장되어 있다는 것입니다
예를 들어 Windsurf에서는 @MCP를 입력하고
탭을 누르면
MCP 문서가 LLM 프롬프트에
포함됩니다. RAG를 내부적으로 사용해서
문서를 검색하고
이를 활용해 답변을 보강합니다
Cursor와 같은 다른 AI IDE에서도
비슷한 작업을 할 수 있습니다
또 다른 옵션은 Brave MCP 서버나
다른 웹 검색용 MCP 서버를 사용하는 것입니다
이를 통해 인터넷을 검색하고
원하는 라이브러리나 도구에 대한
문서를 찾을 수 있습니다
이를 통해
예를 들어 웹을 검색해서
다른 MCP 서버 구현 사례나
문서를 찾아 예제와 문서를 참고할 수 있죠
아니면 이 예제 프롬프트처럼
직접 수동으로 제공할 수도 있습니다
지금 우리가 사용할 프롬프트에서는
Supabase MCP 서버를 만들기 위해
GitHub 저장소 링크를 제공했는데
이미 구현되어 있는
Python MCP 서버의 예제를 참고하려고 합니다
이 예제를 일종의
문서로 활용하면서 동시에 MCP와 Supabase의
공식 문서도 상단에 명시했습니다
이것은 제가 만들고자 하는 것에
매우 구체적인 프롬프트의 예시입니다만
이것을 템플릿으로 활용하시면 됩니다
문서를 언급하고, 예제를 제시하고
구체적으로 무엇을 만들지 명시하면
아주 구체적으로 설명해야 합니다
그러면 훨씬 더 좋은
결과를 얻을 수 있죠. 단순히
'Supabase MCP 서버를 만들어줘'라고 하는 것보다
자, 이제 이 프롬프트를 가지고
Windsurf로 가보겠습니다. 이미 입력해 놨는데
이제 실행해보고 어떻게 동작하는지
지켜보도록 하겠습니다. 재미있는 점은
프롬프트에서 planning.md 파일을
전혀 언급하지 않았음에도
MCP와 Supabase 문서를 가져온 후에
이를 참조할 것입니다. 왜냐하면
우리가 이미 설정해둔
프로젝트 레벨 규칙에
이 작업공간의 전역 규칙으로
지정되어 있기 때문이죠. 먼저 제가 제공한
GitHub 예제를 살펴보고
문서들을 검토한 다음
Brave 웹 검색을 통해
Supabase Python 클라이언트 문서를 찾고 있네요
많은 작업을 하고 있고
많은 플로우 크레딧이 사용되고 있지만
최상의 시작점을 갖는 것이 중요하기에
초반에 이렇게 많은 작업을 하는 것이
일반적으로 문제되지 않습니다
물론 필요하다면 초기 작업량을
줄이도록 프롬프트를 수정할 수도 있죠
자, 이제 문서 검색을 모두
마치게 두고
다음 단계로 넘어가면
돌아오도록 하겠습니다. 좋습니다
모든 문서 검토를
마쳤네요. 보세요
이제 planning과 tasks 파일을
분석하는 단계로 넘어갔습니다
추가 컨텍스트를 모두 가져오고
흥미롭게도 디렉토리를
만들려고 하네요. 아, 그렇죠
이미 테스트 작성을 계획하고 있어요
전역 규칙을 잘 따르고 있네요
디렉토리 생성을 진행하도록 하죠
자, 여기 Supabase
MCP 테스트가 있고
이제 코딩을 시작하려고 합니다
requirements.txt부터 시작하고
그 다음에 아마도... 맞죠
server.py 생성으로 넘어가네요
이 작업은 시간이 좀 걸릴 텐데
꽤 많은 코드가
들어가야 하기 때문입니다
그래서 잠시 중단했다가
서버의 첫 번째 구현이 완료되면
다시 돌아오도록 하겠습니다. 보세요
Windsurf가 단 하나의 프롬프트로
Supabase MCP 서버를 완성했습니다
그리고 이것은 단순한 구현이 아닙니다
이건 기본적인 구현이 아닙니다. 거의 300줄에 달하는
코드이고 정말 잘 작성되었습니다. 우리는
레코드를 삭제하고 업데이트할 수 있으며
레코드를 생성할 수 있고
마지막으로 테이블의 행을 읽을 수 있는 도구도 있습니다
이것은 WindInsurfer가
MCP 문서를 정확히 이해했다는 것을 보여줍니다
Supabase 클라이언트를 설정하고
모든 도구를 정의하는 방식까지
문서를 완벽히 읽고 이해했으며
우리의 계획과 작업 마크다운 파일을 종합하여
이 멋진 코드를 만들어냈습니다
그리고 작업 마크다운 파일을 보면
작업들이 완료된 것으로 표시되어 있습니다
하지만 테스트는 만들지 않았고
README도 업데이트하지 않았네요
테스트 폴더는 만들었지만
실제 테스트는 작성하지 않았어요
이건 좀 이상하네요
때때로 이런 이상한 동작이 발생하는데
글로벌 규칙은 이해하지만
원하는 모든 것을 수행하지는 않습니다
하지만 괜찮습니다
후속 프롬프트로 해결할 수 있으니까요
잠시 후에 보여드리겠습니다
하지만 먼저
이것이 실제로 작동하는지 테스트해보겠습니다
이제 로컬에 MCP 서버가 생성되었고
MCP 서버 생성에 대한
전용 영상을 만들고 싶습니다
관심 있으시다면 댓글로 알려주세요
지금은 구현과 실행 부분은
간단히 넘어가겠습니다
이 영상의 목적은
AI를 활용한 코딩 프로세스를 보여주는 것이지
MCP 서버 만들기가 아니니까요
어쨌든 Cloud Desktop에서
서버를 연결해보겠습니다
좌측 상단의 파일 설정으로 가서
개발자를 클릭하고 구성 편집을 클릭하면
구성 폴더가 열립니다
cloudmcpconfig.json 파일로 이동할 수 있습니다
cloudmcpconfig.json
파일이 WindSurf에서 열려있네요
여기에 Cloud Desktop용
모든 서버가 설정되어 있습니다
Supabase를 추가하기 위해
이 줄을 추가했는데
Python 실행 파일 경로를 지정했습니다
특히 생성한 가상 환경 내에서요
다시 말하지만 이런 세부사항은
이 영상에서 중요하지 않습니다
서버 만들기에 대한 후속 영상을 만들겠습니다
그 다음에는
WindSurf가 방금 만든 서버를 가리키는
인수들이 있습니다
그리고 환경 설정에는
가려진 부분이 있는데
Supabase의 URL과 서비스 키를 전달하고 있습니다
이 모든 설정을 마치면
Cloud Desktop을 재시작하고
사용 가능한 MCP 도구들을 열면
첫 번째 Supabase 도구로 스크롤해보죠
여기 있네요
테이블 레코드 생성이 있고
다른 세 가지 도구도 있습니다
도구 목록을 스크롤하면
찾을 수 있을 겁니다
이제 이런 걸 물어볼 수 있죠
음... document metadata 테이블에
어떤 레코드들이 있나요? 이건 제가 다른 영상에서
N8N으로 RAG 작업할 때 만든
테이블입니다
이제 Supabase 도구를 호출할 거예요.
이 대화를 허용하겠습니다.
저는 단 한 번의 프롬프트만 했어요.
아직 후속 프롬프트는 전혀 하지 않았는데도
보세요, 우리는 단번에 성공했습니다.
Windsurf가 있는 Supabase MCP 서버를
이 전략으로 구현했고, 이것은
제가 설정한 규칙들과
문서 검색,
예제 제공 등이 없었다면
불가능했을 겁니다.
저도 실제로 매우 놀랐어요.
이것은 상당히 큰 구현이었는데
한 번에 성공적으로 해냈습니다.
이것들이 실제로 제가 가지고 있는
Supabase의 문서 메타데이터 테이블의
레코드들이에요. 정말 멋지죠.
이제 이 시점에서 우리는
MCP 서버의 좋은 상태를 가지고 있으니
git으로 저장해서 나중에
문제가 생겼을 때
AI IDE가 뭔가를 망가뜨렸을 때
readme를 추가하거나
서버 기능을 수정하거나
테스트를 추가할 때 되돌릴 수 있게 할게요.
새로운 대화창을 열어서
이 프로젝트를 위한 git 저장소를 만들고
커밋하도록 지시할 겁니다.
git MCP 서버를 사용하거나
이런 AI IDE들이 기본적으로 제공하는
git 저장소 관련 명령어들을 사용할 수 있어요.
예를 들어 이 경우에는
도구 사용을 시도했다가 실패해서
이제 터미널에서
git status를 사용하고 있는데
이것도 잘 작동합니다.
네, git 저장소가
초기화된 것 같네요. 전에
한 번 실행해봤었는데
그래서 git 저장소가
이미 만들어져 있었어요. 이제 .gitignore를
만들고 있는데 좋아 보이네요.
이건 꼭 필요하죠. 이제 git add
명령어를 실행하고 있고, 다시 말하지만
git MCP 서버로도 할 수 있지만
저는 그냥 명령어를 사용할게요.
status를 실행하고 마지막으로
커밋을 만들 거예요.
자, 됐습니다. 커밋을 만들었고
이제 모든 것이 저장됐어요.
나중에 이 커밋으로 되돌아오라고
요청할 수 있고, 뭔가 잘못되면
현재 상태로 돌아올 수 있죠.
이제 이것도 완료됐으니
다음 단계로 넘어갈 수 있습니다.
테스트를 만들고 빠진 것들을
처리할 거예요. readme 같은 것들이요.
이제 메인 문서로
돌아가보면
6단계와 7단계를
동시에 처리할 겁니다. 6단계는
초기 프롬프트 이후
프로젝트를 어떻게 발전시키는지 보여주고
여기서 중요한 것은
한 번에 하나의 변경사항만 요청하라는
황금률이에요. 제가 좋은 예시와
나쁜 예시를 가지고 있는데
중요한 점은 LLM에
과도한 요청을 하지 않는 거예요.
우리의 경우
구현하고 싶은 것들이
몇 가지 있죠. readme와
프로젝트 문서를 만들어야 해요.
우선 처음에는 문서화를 하지 않았는데,
그리고 다음으로 우리가
바로 처리해야 할 것은
7번 섹션으로 넘어가서
우리의 Supabase MCP 서버의 초기 버전에 대한
테스트를 만드는 것입니다.
서버에서 만든 각각의 도구에 대해
단위 테스트를 만들도록 LLM에 요청할 것입니다.
여기 테스트에 대한 모범 사례를 정리했는데,
이것들이 바로 우리가
LLM에게 제공하고자 하는 내용입니다.
이는 전역 규칙에서 설정할 수 있죠.
제가 제공한 이 템플릿에서
전역 규칙을 위해 우리가 본
테스트 모범 사례 섹션의 모든 내용을
여기에 그대로 나열했습니다.
따라서 여러분이 직접
모킹이 정확히 무엇인지 이해하지 않아도
LLM에게 규칙으로 제공할 수 있습니다.
우리는 테스트를 위한
전용 디렉토리를 가지고 싶고
데이터베이스와 LLM 호출을 모킹하여
실제로 사용하지 않게 할 것입니다.
테스트가 빠르고 무료여야 하기 때문이죠.
또한 성공 시나리오를 테스트하고
에러 처리가 제대로 되는지 확인하며
엣지 케이스도 테스트해야 합니다.
이 모든 것을 전역 규칙으로 포함시켰고
이제 윈드서프로 돌아가서
새로운 대화를 시작할 수 있습니다.
server.py에 대한 테스트를 만들어달라고
요청할 수 있고
여기 이미 있는 테스트 디렉토리를
지정할 수 있습니다.
디렉토리가 너무 많아 보이네요.
그래서 그것들을 삭제하고
tests 디렉토리만 지정하겠습니다.
자, 이렇게 했고
더 자세한 설명을 추가하면
도움이 될 수 있겠지만
전역 규칙 덕분에
우리가 별도로 프롬프트에서
지시하지 않아도 모범 사례를 따를 것입니다.
그래서 여기서는 간단하게 할 수 있죠.
자, 이제 잠시 중단하고
초기 테스트 생성이 완료되면
다시 돌아오겠습니다.
좋습니다. 윈드서프가 서버에 대한
모든 테스트를 생성했는데
처음에는 12개의 테스트는 통과했지만
2개가 실패했습니다.
그래서 몇 가지 후속 프롬프트로
약간의 반복 작업을 거쳤고
그 후에는 아주 잘 작동하게 되었습니다.
이제 터미널에서
pytest 명령어를 실행하고
루트 디렉토리에서
테스트 폴더를 지정하면 됩니다.
보세요, 14개의 테스트가 모두 통과됐습니다.
14개인 이유는 각각의 도구에 대해
성공, 실패, 엣지 케이스 시나리오를
테스트하기 때문이고
거기에 몇 가지가 더 추가되어
환경 변수를 사용한
수명 주기 테스트도 있습니다.
이는 정말 포괄적이에요.
이 파일은 거의 500줄에 달하는 대규모 코드입니다.
보통 테스트 파일이 이렇게 되는데
때로는 기본 파일보다도
더 길어질 수 있습니다.
모든 시나리오를 다루어야 하기 때문이죠.
모든 경우를 테스트해야 하니까요.
다양한 시나리오를 모두 확인해야 하고
이러한 테스트들은 매우 견고하며
모든 것이 모킹되어 있어 아주 완벽합니다.
이제 우리는 Supabase MCP 서버의
첫 번째 버전을 완성했고 정상 작동합니다.
Cloud Desktop에서 테스트도 마쳤고
단위 테스트도 모두 완료되었습니다.
이제 필요한 부분을 반복적으로 개선할 수 있고
README 파일도 작성할 수 있습니다.
이 모든 과정에서
tasks와 planning 마크다운 파일을
계속 최신 상태로 유지해야 합니다.
이는 매우 중요한 컨텍스트이기 때문입니다.
특히 새로운 대화를 시작할 때
이제 Supabase MCP 서버를
개선하기 위한
다양한 작업들이 남아있습니다.
하지만 이는 오프카메라로 진행하겠습니다.
지금까지 전체 워크플로우를
충분히 설명했기 때문입니다.
마지막 단계는 프로젝트 배포입니다.
여러분이 만든 것이 배포할 준비가 되면
클라우드에 업로드하거나
다른 사람들과 공유하기 위해 패키징할 때
AI 코딩 어시스턴트의 도움을 받을 수 있습니다.
제가 선호하는 방식은
Docker나 Podman 같은
유사한 서비스를 활용하는 것입니다.
가장 좋은 점은 LLM이 Docker와 잘 작동한다는 것입니다.
Docker는 오랫동안 사용되어 왔고
인터넷상에
수많은 예제들이 있어서
LLM 학습에 활용되었기 때문입니다.
따라서 애플리케이션을 패키징하고 배포하기 위한
Dockerfile 생성을 도와줄 수 있습니다.
심지어 사용할 명령어까지 제공해 줍니다.
예를 들어, 여기 제가 사용한
프롬프트가 있는데
MCP 서버를 위한 Dockerfile을 작성하고
requirements.txt 파일에 있는
Python 요구사항을 모두 포함하여
컨테이너 빌드 명령어까지 제공해 달라고 했습니다.
이미 완료했는데, 여러분을 지루하게 하지 않기 위해
기다리는 과정은 생략했습니다.
MCP 서버를 패키징하기 위한
Dockerfile을 만들었고
별도 명령으로 README도 생성했습니다.
한 번에 한 가지씩 진행한다는 것을 기억하세요.
README에는
모든 실행 방법이 포함되어 있습니다.
Git에서 설치하는 방법부터
모든 실행 지침이 상세히 설명되어 있습니다.
참고로, 이 지침들을 따라
여러분도 직접
Supabase MCP 서버를 실행해볼 수 있습니다.
정말 멋진 일이죠. 이 영상에서
완전히 작동하는 예제를 만들었습니다.
컨테이너를 빌드한 다음
Cloud Desktop이나 Winds Surf,
Cursor 등에서 설정을 구성할 수 있습니다.
이 설정 예제를 사용하면 됩니다.
시작하는 데 필요한 것은 이게 전부입니다.
이제 배포가 완료되었고
여러분도 이 저장소를 클론해서
직접 실행해볼 수 있습니다.
이것이 전체 프로세스입니다.
문서 기획부터 구현, 테스트,
문서화, 그리고 배포까지
말 그대로 처음부터 끝까지 완성했습니다.
모든 것을 다루었죠.
솔직히 이 영상을 준비하고
녹화하는 데 매우 오랜 시간이 걸렸습니다.
이 프로세스가 여러분에게
도움이 되었기를 바랍니다.
일부 세부 내용은
다른 영상에서 더 자세히 다룰 수 있을 것 같고
MCP 서버를 처음부터 구축하는
전체 과정을 다루는
영상도 만들고 싶습니다.
MCP 서버에 대해 더 자세히 설명하는
영상을 원하시는지
댓글로 알려주세요.
이 영상이
AI를 활용한 코딩에서
더 효율적으로 일할 수 있도록
도움이 되었길 바랍니다.
여러분의 프로세스가
어떤지 궁금합니다.
제가 소개한 방법에
추가하고 싶은 것이 있거나
잘 작동하는 다른 방법이
있다면 댓글로 알려주세요.
이런 강력한 도구를 사용하는 데
만능 해결책은 없습니다.
저는 단지 제게 잘 맞는 방법을
공유하고 싶었을 뿐입니다.
이 영상이 도움이 되었고
AI 코딩과 AI 에이전트에 대한
더 많은 내용을 기대하신다면
좋아요와 구독 부탁드립니다. 다음 영상에서 만나요!