[00:00]
여러분도 아시다시피 AI 코딩 어시스턴트를
[00:01]
사용하지 않으면 뒤처질 수밖에 없습니다.
[00:04]
어떤 개발을 하든 상관없이
[00:05]
하지만 대부분의 사람들이 모르는 것은
[00:07]
이러한 AI 코딩 어시스턴트를
[00:10]
효과적으로 사용하는 방법입니다. 물론
[00:12]
원하는 것을 마음대로
[00:14]
WindSurf나 Cursor 같은 AI IDE에 던져넣으면
[00:16]
때때로 좋은 결과를 얻을 수도 있지만
[00:19]
명확한 작업 프로세스가 없다면
[00:21]
항상 그런 결과를 얻을 수는 없죠.
[00:23]
그리고 정말 짜증나는 것은
[00:26]
LLM이 시니어 소프트웨어 엔지니어에서
[00:28]
마치 키보드를 마구 두드리는
[00:30]
원숭이 무리처럼 변해버려서
[00:32]
코드의 일부를 삭제하고
[00:34]
원하지도 않는 기능을
[00:36]
구현하는 경우죠. 여러분도 그 고통을 아실 거예요.
[00:38]
AI로 코딩할 때는
[00:40]
높은 품질의 결과물을 원한다면
[00:43]
잘 정의된 프로세스가 꼭 필요하고
[00:45]
아직 그런 정제된 프로세스가
[00:47]
없다면, 이 영상이 끝날 때쯤에는
[00:50]
AI 개발의 새로운 차원을
[00:51]
경험하게 될 것임을 약속드립니다.
[00:54]
제가 제 전체 워크플로우를
[00:56]
단계별로 자세히 설명해드리면서
[00:58]
세부적인 내용까지 다룰 거니까
[01:00]
제 프로세스를 그대로 따라하면 생산성을 10배, 심지어 100배까지
[01:03]
높일 수 있을 겁니다.
[01:05]
여러분의 시간을 가치있게 만들기 위해
[01:08]
세 가지를 약속드리겠습니다.
[01:09]
첫 번째는 많은 사람들이
[01:11]
AI 설정을 복잡하게 만드는 것을 보는데
[01:13]
우리는 그러지 않을 거라는 점입니다.
[01:16]
두 번째로
[01:17]
장난감 같은 프로젝트가 아니라
[01:19]
이 워크플로우를 사용해서 실용적이고
[01:21]
완전한 Supabase MCP 서버를 만들 겁니다.
[01:24]
이건 이 영상에서 더 자세히 다룰 거구요.
[01:26]
세 번째는
[01:28]
이 프로세스가 여러분이
[01:29]
어떤 개발을 하든,
[01:31]
어떤 AI IDE를 사용하든 잘 작동할 거라는 점입니다.
[01:34]
마지막으로 정말 빠르게,
[01:35]
AI 코딩 워크플로우뿐만 아니라
[01:37]
AI 스킬 전반을 향상시키고 싶다면
[01:39]
제가 완벽한 것을 준비했습니다.
[01:42]
dynamis.ai를 확인해보세요.
[01:44]
제가 방금 론칭한 독점 커뮤니티인데
[01:45]
여기서는 제가 유튜브에서 공유하는
[01:47]
전문성을 훨씬 더 깊은 수준으로
[01:50]
코스, 라이브 워크숍, 주간 세션,
[01:53]
일일 지원을 통해 전달하고
[01:55]
가장 좋은 점은 다른
[01:57]
얼리 AI 어답터들과 함께하는 커뮤니티입니다.
[01:59]
링크를 확인하고 대기자 명단에 등록하세요.
[02:01]
자, 이제 AI로 코딩하는
[02:03]
전체 프로세스를 살펴보겠습니다.
[02:05]
지금 보시는 것은 구글 문서인데
[02:07]
이 영상의 설명란에 링크를 달아두었고
[02:09]
AI로 코딩하는 제 전체 프로세스가 담겨있습니다.
[02:12]
여러분도 참고자료로 사용하시면 좋겠고
[02:14]
이 영상 전체에서 계속
[02:16]
참조할 예정입니다.
[02:17]
이게 바로 우리의 완전한
[02:19]
프로세스이기 때문이죠. 먼저 최상단의
[02:22]
황금률부터 시작하겠습니다.
[02:24]
이것들을 빠르게 살펴보고
[02:26]
이 규칙들이 우리의 나머지 프로세스를
[02:28]
어떻게 좌우하는지 보겠습니다.
[02:30]
2단계부터 실제 프로젝트를 시작할 건데
[02:32]
첫 번째 황금률이 정말
[02:34]
중요합니다. 우리는 이런 상위 레벨의
[02:37]
마크다운 문서들을 사용할 겁니다.
[02:39]
설치 관련 지침을
[02:42]
문서화, 기획, 작업 지시에 사용하고,
[02:44]
이를 통해 LLM에 맥락을 제공합니다.
[02:47]
우리는 프로젝트를 진행하면서
[02:49]
AI의 도움을 받아 이러한 문서들을
[02:51]
만들고 관리할 것입니다.
[02:53]
그 다음 세 가지 규칙은 모두
[02:55]
LLM에 과부하를 주지 않는 것에 관한 것입니다.
[02:58]
LLM에 제공하는 맥락이 길수록
[03:00]
환각 현상이 발생할 가능성이 높아지기 때문에
[03:02]
예를 들어, 모든 코드 파일을
[03:03]
500줄 이하로 유지해야 하고
[03:07]
대화를 자주 새로 시작해야 합니다.
[03:09]
긴 대화는 LLM의 성능을
[03:11]
저하시킬 수 있기 때문입니다.
[03:14]
또한 한 번에 너무 많은 작업을
[03:16]
요청하지 않아야 합니다.
[03:18]
실제로 저는 보통
[03:20]
한 번의 프롬프트에 하나의 새로운 기능이나
[03:22]
구현을 요청하는 것이 가장 좋다고 생각합니다.
[03:25]
파일이 길거나 대화가 길어지고
[03:28]
많은 것을 동시에 요청할 때
[03:30]
좋지 않은 결과가 나옵니다.
[03:32]
이런 경우에는
[03:33]
어떤 LLM이나 AI IDE를 사용하더라도
[03:36]
형편없는 결과가 나오게 됩니다.
[03:39]
또한 대부분의 사람들이 테스트를 좋아하진 않지만
[03:41]
AI에게 코드 테스트를 작성하도록 요청하는 것이
[03:43]
매우 중요합니다. 이상적으로는
[03:46]
새로운 기능을 구현할 때마다
[03:48]
테스트를 작성해야 하며
[03:50]
이를 통해 일관된 결과를 얻을 수 있습니다.
[03:52]
또한 요청 사항을 구체적으로 명시해야 하는데
[03:54]
이 부분에서는 오히려
[03:55]
약간의 추가 맥락을 제공하는 것이 좋습니다.
[03:57]
LLM에 과부하를 주지 않으면서도
[04:00]
자체적인 판단에만 맡기지 않고
[04:02]
원하는 바를 매우 구체적으로
[04:04]
설명해야 합니다.
[04:06]
단순히 고수준에서
[04:07]
만들고 싶은 것을 설명하는 것이 아니라
[04:09]
사용하고 싶은 기술,
[04:11]
라이브러리, 원하는 출력 형태 등
[04:13]
세부 사항까지 구체적으로 설명하면
[04:16]
매우 도움이 됩니다.
[04:17]
마지막 두 가지 규칙은
[04:19]
문서와 주석을 작성하면서 진행하는 것입니다.
[04:22]
LLM이 지속적으로 문서를 업데이트하도록
[04:24]
상위 수준의 핵심 파일뿐만 아니라
[04:26]
코드의 주석도 함께 작성해야 합니다.
[04:29]
이는 여러분이 코드를 이해하는 데도 도움이 되고
[04:31]
LLM이 나중에 이 파일들을 참조할 때도
[04:33]
도움이 됩니다.
[04:35]
그리고 마지막으로
[04:38]
환경 변수는 직접 구현해야 합니다.
[04:40]
API 키나 데이터베이스 보안과 관련해서는
[04:43]
LLM을 신뢰하지 마세요.
[04:45]
이와 관련된 모든 것들은
[04:47]
이 사람처럼 되고 싶지 않다면요.
[04:49]
이 링크를 넣은 이유는
[04:50]
매우 재미있는 사례라고 생각해서입니다.
[04:52]
AI에 과도하게 의존했을 때
[04:54]
심각한 문제가 발생한 예시죠. 이 사람은 Cursor로
[04:57]
SaaS를 전부 만들었고 코딩을 직접 하지 않았습니다.
[05:00]
3월 15일에는 신이 나서
[05:01]
"AI는 이제 단순한 도우미가 아니라
[05:03]
개발자다"라고 했지만
[05:05]
이틀 후에 해킹을 당했습니다.
[05:07]
이상한 일들이 발생하고 API 키 사용량이 폭증하고
[05:10]
구독 우회가 발생했는데
[05:12]
아마도 데이터베이스 보안이
[05:14]
제대로 설정되지 않았기 때문일 겁니다.
[05:16]
AI에게 환경 변수와
[05:19]
보안 관리를 맡겼기 때문에 이런 일이 발생했죠.
[05:21]
데이터베이스 보안과 관련된 모든 것,
[05:23]
보안과 관련된 모든 사항에 대해
[05:25]
직접 이해하고 있어야 하며,
[05:27]
AI가 생성하는 모든 코드를
[05:29]
이해해야 합니다. 저는 일반적으로
[05:31]
감으로 코딩하는 것을 추천하지 않지만,
[05:33]
설령 그렇게 하더라도
[05:36]
최소한 프로젝트가 안전한지
[05:38]
반드시 확인해야 합니다. 이것은
[05:40]
매우 중요합니다. 이러한
[05:42]
핵심 규칙들은 이 문서
[05:43]
전반에 걸쳐 계속 나올 것입니다.
[05:45]
이제 프로젝트 계획부터 시작해보겠습니다.
[05:48]
계획 단계는 매우 간단합니다.
[05:49]
우리는 planning과 task 파일을
[05:51]
생성할 것이며, 이는
[05:53]
코딩을 시작하기 전에
[05:55]
먼저 해야 합니다. 왜냐하면
[05:56]
코드를 작성하기 전에
[05:58]
상위 수준의 방향성을 가져야 하기 때문입니다.
[06:00]
planning 문서에는
[06:02]
상위 수준의 비전,
[06:04]
아키텍처, 제약 사항 등
[06:06]
모든 상위 수준의 정보가 포함되며,
[06:08]
이를 LLM에 컨텍스트로 제공합니다.
[06:10]
우리는 AI 코딩 어시스턴트에게
[06:13]
전체 프로세스 동안
[06:15]
이 파일을 참조하도록 할 수 있는데,
[06:17]
특히 새로운 대화를
[06:19]
시작할 때 유용합니다.
[06:20]
이를 통해 AI가
[06:22]
우리 프로젝트에서 하고 있는 일을
[06:24]
빠르게 파악할 수 있어,
[06:26]
다른 코드 파일을 분석할 필요가 없습니다.
[06:28]
그리고 조금 더 낮은 수준에서
[06:30]
task.md 파일이 있는데, 여기서는
[06:32]
완료된 작업과 해야 할 작업을
[06:34]
모두 추적합니다. 대화 과정에서
[06:36]
LLM이 새로운 작업을 추가하고
[06:39]
업데이트하거나 삭제하고 완료 표시를 할 수 있습니다.
[06:42]
이 모든 것이 가능합니다.
[06:44]
이를 통해 우리가
[06:46]
AI 코딩 어시스턴트의
[06:48]
프로젝트 관리자가 될 수 있으며,
[06:50]
이는 AI의 모든 작업을 지시하기 위해
[06:52]
중요합니다. 이것은 우리가
[06:55]
그 일을 잘 수행하고 AI 코딩
[06:56]
어시스턴트가 도움을 주는데 필요한
[06:59]
리소스입니다. 이러한 파일들을
[07:01]
생성할 때 보통 AI IDE를 사용하지 않고
[07:04]
Claw Desktop과 같은 챗봇을 사용합니다.
[07:06]
여기 Supabase MCP 서버를 위한
[07:08]
샘플 프롬프트가 있습니다.
[07:11]
우리는 MCP를 커넥터로 사용하여
[07:12]
Claw Desktop이나 자체 AI 에이전트와 같은
[07:14]
앱을 사용할 수 있게 하여
[07:17]
Supabase에 연결하고
[07:19]
데이터베이스 작업을 수행할 도구를 제공합니다.
[07:22]
이 계획을 위해
[07:24]
Brave API를 사용하도록 지시했는데,
[07:26]
이미 Brave MCP 서버가 설정되어 있기 때문입니다.
[07:29]
이 영상의 범위를 벗어나므로
[07:31]
자세한 내용은 다루지 않겠지만,
[07:32]
이것은 planning.md와 task.md 파일을
[07:35]
매우 빠르게 생성하는
[07:37]
예시로 사용하시면 됩니다.
[07:41]
이 프롬프트를 보내면
[07:43]
웹 검색을 수행할 것이므로
[07:45]
허용하고 기다리면
[07:48]
두 파일이 모두 생성될 때까지
[07:50]
기다리면 됩니다. Claw Desktop이
[07:52]
두 파일을 모두 생성했고,
[07:54]
파일 시스템에 직접 생성했습니다.
[07:55]
MCP 서버가 있기 때문입니다.
[07:58]
여기 이 디렉토리에 생성했으니까
[08:00]
Windsurf로 열어볼 수 있습니다. 참고로
[08:02]
어떤 AI 코딩 어시스턴트든 사용할 수 있어요
[08:04]
제가 Windsurf를 사용하고 있지만
[08:06]
이는 Cursor, ClientRoot, Code 등
[08:08]
어떤 것을 사용해도 상관없습니다
[08:10]
이 프로세스는 모든 도구에 적용되거든요
[08:12]
여기 계획 파일이 있는데
[08:14]
미리보기를 열어서 살펴보겠습니다
[08:16]
개요가 있고, 프로젝트 범위,
[08:19]
기술 아키텍처, 기술 스택이 있네요
[08:21]
이 모든 정보들을
[08:23]
AI 코딩 어시스턴트에게 컨텍스트로 제공해서
[08:26]
프로젝트를 시작할 때
[08:27]
올바른 방향으로 시작할 수 있도록
[08:29]
도와줄 수 있습니다
[08:31]
물론 이 문서가 완벽하진 않아요
[08:33]
'MCP가 무엇인가'와 '슈퍼베이스가 무엇인가' 같은
[08:35]
섹션은 사실 필요없죠
[08:37]
그래서 이것을 오프카메라로 수정하고
[08:39]
지루한 세부사항은 생략하겠습니다
[08:40]
하지만 이는 좋은 시작점이고
[08:42]
보통은 이걸 많이 반복해서
[08:44]
챗봇이나 작업 중인 곳에서
[08:46]
파일을 개선해 나가야 합니다
[08:48]
태스크 파일도 있는데
[08:49]
이것도 미리보기로 열어보면
[08:52]
AI가 설정해준 다양한 작업들이 있고
[08:53]
AI 코딩 어시스턴트가 이것들을
[08:55]
하나씩 처리해 나갈 거예요
[08:57]
필요한 경우 새로운 작업도 추가하면서요
[09:00]
사실 이건 좀 과하게 만들어졌네요
[09:02]
그래서 다시 한번 말씀드리지만
[09:03]
이런 것들은 반복해서 개선해야 해요
[09:05]
이 정도로 많은 태스크가 필요하진 않거든요
[09:08]
하지만 좋은 시작점이라고 할 수 있죠
[09:10]
계획 단계에서 마지막 팁을 하나 드리자면
[09:11]
제가 자주 하는 방법인데
[09:13]
Claude같은 단일 LLM만 사용하는 대신
[09:15]
여러 대규모 언어 모델을 활용해서
[09:18]
프로젝트 계획을 세웁니다
[09:20]
똑같은 프롬프트를 각각에게 주고
[09:22]
마지막에 모든 결과를 통합하죠
[09:23]
여기서 핵심은 좋은 플랫폼이 필요한데
[09:26]
한 곳에서
[09:27]
여러 LLM을 사용할 수 있으면서
[09:29]
구독료를 여러 번 내지 않아도 되는
[09:31]
플랫폼이 필요합니다
[09:32]
다양한 앱들이 있지만
[09:34]
제가 자주 사용하고
[09:35]
이 영상의 스폰서이기도 한
[09:37]
Global GPT를 추천드립니다
[09:39]
가격이 매우 합리적이고
[09:42]
무료로 시작할 수 있으면서
[09:43]
Deepseek, O3, Claude 같은 최고의 LLM들을
[09:46]
모두 이용할 수 있어요
[09:49]
Deep Research나 Perplexity 같은 도구들도
[09:52]
포함되어 있어서 계획 단계에서
[09:54]
더 깊이 있는 리서치가 필요하다면
[09:56]
Global GPT로 가능합니다
[09:58]
다른 도구들도 많은데
[09:59]
Ideogram이나 Midjourney로
[10:02]
프로젝트의 에셋을
[10:03]
계획하고 싶다면 그것도 가능해요
[10:05]
인터페이스는
[10:06]
방금 본 Claude Desktop과 매우 유사하지만
[10:09]
다양한 LLM에 쉽게 접근할 수 있고
[10:11]
심층 리서치도 할 수 있어서
[10:14]
정말 좋습니다
[10:16]
프로젝트 계획을 깊이 있게 하고 싶다면
[10:18]
이런 플랫폼을 꼭 사용해보세요
[10:20]
설명란에 Global GPT 링크를 남겨두었으니
[10:22]
한번 확인해보시는 걸 추천드립니다
[10:24]
정말 추천하는 도구예요
[10:26]
마지막으로 프로젝트 계획에 대해
[10:27]
빠르게 한 가지 팁을 더 드리고 싶습니다.
[10:29]
이제 다음 단계로 넘어가보겠습니다.
[10:31]
계획과 작업이 완료되었으니
[10:33]
이제 글로벌 규칙으로 넘어갈 시간입니다.
[10:35]
이것은 AI 코딩 어시스턴트를 위한 시스템 프롬프트입니다.
[10:38]
AI 코딩 어시스턴트에게 전달할
[10:40]
모든 상위 수준의 지침을
[10:42]
글로벌 규칙에서 정의합니다.
[10:45]
이렇게 하면 매번 명시적으로
[10:47]
입력할 필요가 없습니다.
[10:49]
예를 들어, 우리의 글로벌 규칙에서
[10:52]
'새로운 대화 시작시 항상 계획 파일을 읽으라'고
[10:54]
설정할 수 있습니다.
[10:56]
이렇게 하면 대화를 시작할 때
[10:58]
명시적으로 요청할 필요 없이
[11:00]
자동으로 실행되어 시간을 절약할 수 있죠.
[11:02]
다양한 요청에서 반복되는
[11:04]
타이핑을 줄일 수 있습니다.
[11:06]
'이것을 구현하고 테스트를 작성하고
[11:08]
작업을 체크오프 해주세요'라고 매번 말하는 대신
[11:10]
글로벌 규칙에서 한 번만 설정하면 됩니다.
[11:12]
'작업을 확인하고 새로운 기능에 대한
[11:15]
테스트를 작성하라'는 식으로요.
[11:16]
이제 이 모든 것이 LLM에 대한
[11:19]
시스템 프롬프트가 되었습니다.
[11:21]
제가 AI 코딩 어시스턴트에 설정한
[11:23]
글로벌 규칙입니다.
[11:25]
여러분도 이것을 사용하고
[11:27]
기술 스택과 요구사항에 맞게
[11:28]
수정할 수 있습니다.
[11:30]
이것은 정말 좋은 시작점이 될 것이고
[11:31]
더 나아가서
[11:32]
가장 인기 있는 4개의 AI IDE에 대한
[11:35]
설정 방법도 포함되어 있습니다.
[11:39]
구체적으로 보여드리겠습니다.
[11:41]
Warp에서 어떻게 하는지
[11:42]
이 영상에서 사용 중인 AI IDE로
[11:44]
보여드리겠습니다. 이것을 복사하고
[11:46]
Warp로 가서
[11:49]
우측 상단의 추가 옵션에서
[11:51]
'메모리 관리'를 클릭합니다.
[11:54]
여기서 글로벌 규칙을 설정할 수 있는데,
[11:56]
이는 모든 디렉토리에 적용됩니다.
[11:58]
그리고 작업공간별 규칙이 있어서
[12:00]
현재 프로젝트에만 적용되는
[12:02]
규칙을 설정할 수 있습니다.
[12:04]
보통은 작업공간 규칙을 추천하는데,
[12:07]
그 이유는 사용하는 기술들이
[12:09]
프로젝트마다 다르기 때문입니다.
[12:11]
따라서 작업공간 규칙을
[12:13]
사용하는 것이 좋습니다.
[12:15]
작업공간 규칙으로 가서
[12:17]
Google 문서에서 복사한 내용을
[12:19]
그대로 붙여넣을 수 있습니다.
[12:22]
그리고 다른 마크다운 파일처럼
[12:24]
미리보기를 열어서
[12:25]
AI 코딩 어시스턴트에 대한
[12:28]
규칙이 설정된 것을 확인할 수 있습니다.
[12:30]
우리는 AI에게 이러한 다양한
[12:32]
마크다운 파일을 어떻게 사용할지 알려주고
[12:34]
매번 계획을 확인하고 작업을 표시하라고
[12:36]
요청할 필요 없이
[12:38]
오른쪽 프롬프트에서
[12:40]
이 파일들과 작업하는 방법을
[12:42]
알 수 있게 됩니다.
[12:44]
그리고 500줄을 넘지 않게
[12:45]
파일을 만드는 것과 같은 황금률도 알려주고
[12:48]
각 기능에 대한 테스트 작성도 지시하며
[12:50]
스타일 가이드라인도 제공합니다.
[12:53]
코드를 깔끔하게 작성하도록
[12:54]
하고 README 파일 작업 방법도
[12:57]
알려주어 문서화를
[12:58]
유지할 수 있게 합니다.
[13:01]
그리고 하단에는 AI를 돕기 위한
[13:03]
여러 가지 기타 규칙들을
[13:05]
포함시키는 것을 선호합니다. 이것이
[13:07]
전체적인 규칙이며, 이제 우리는
[13:10]
LLM에 대한 프롬프트를 간단하게
[13:12]
유지할 수 있습니다. 왜냐하면
[13:14]
AI가 수행해야 할 다양한 작업들이
[13:15]
있고 이를 따르도록 해야 하지만
[13:17]
매번 요청할 필요가 없기 때문입니다
[13:19]
이것이 글로벌 규칙의 중요한 점이죠
[13:21]
글로벌 규칙 설정은
[13:22]
몇 분이면 충분할 것입니다. 이제
[13:24]
MCP 서버 구성으로 넘어갈 수 있습니다
[13:27]
MCP에 익숙하지 않으시다면
[13:29]
위에 링크한 영상을
[13:30]
확인해보시기를 추천드립니다
[13:32]
간단히 말하면 AI IDE에
[13:34]
더 많은 도구를 제공하는 방법입니다
[13:37]
Brave를 통한 웹 검색과 같은
[13:39]
기능을 수행할 수 있죠. 제가 항상 사용하는
[13:42]
세 가지 핵심 서버가 있는데
[13:43]
곧 설명해드리겠습니다. 각각의
[13:46]
설치 링크가 있고
[13:48]
다양한 AI IDE에서 MCP를
[13:50]
설정하는 방법과 함께
[13:52]
다른 MCP 서버 목록 링크도 있습니다
[13:55]
여기서 원하는 다른
[13:56]
서버들을 다운로드할 수 있고
[13:58]
각 링크를 클릭하면
[14:00]
AI IDE 내에서 정확한 설정 방법을
[14:03]
확인할 수 있습니다. 구성 설정에 대한
[14:05]
안내가 제공됩니다. 제가 항상 사용하는
[14:07]
세 가지 핵심 서버에 대해 설명하자면
[14:10]
AI IDE가 파일 시스템과
[14:11]
상호작용할 수 있기를 원합니다. 현재 프로젝트뿐만 아니라
[14:14]
컴퓨터의 다른 폴더들과도 상호작용이 가능해야 합니다
[14:16]
예를 들어 이미지 폴더가 있다면
[14:19]
프로젝트에 필요한 에셋을
[14:20]
가져올 수 있어야 하고
[14:22]
이전 프로젝트를 참조하여
[14:24]
이전에 어떻게 구현했는지 확인할 수 있어야 합니다
[14:26]
이 모든 것이 파일 시스템
[14:28]
서버가 있으면 가능합니다. 또한
[14:30]
AI IDE가 웹 검색을 할 수 있기를 원합니다
[14:33]
일부 AI IDE에는 웹 검색 기능이 내장되어 있지만
[14:36]
Brave API는 매우 강력한 기능을 제공합니다
[14:39]
내부적으로 AI를 사용하여
[14:41]
다양한 웹 검색 결과를
[14:43]
요약해주기 때문에
[14:45]
매우 강력한 출력을 얻을 수 있습니다
[14:47]
이를 통해
[14:48]
사용 중인 도구, 라이브러리
[14:51]
프레임워크의 문서를 가져올 수 있고
[14:53]
마지막으로 제가 자주 사용하는 것은
[14:55]
Git입니다. Git을 사용하는 이유는
[14:57]
모든 프로젝트를
[14:59]
Git 저장소로 설정해야
[15:01]
버전 관리가 가능하고 프로젝트
[15:04]
백업을 관리할 수 있으며
[15:06]
다양한 버전을 저장할 수 있기 때문입니다
[15:08]
Git MCP 서버를 사용하면
[15:10]
여기 예시 프롬프트처럼
[15:12]
'현재 상태가 마음에 들고
[15:14]
추가 기능을 구현하기 전에
[15:15]
현재 상태를 백업하고 싶으니
[15:17]
현재 상태를 저장하기 위해
[15:20]
git commit을 해주세요'라고 요청할 수 있습니다
[15:22]
그리고 이것은
[15:24]
정말 강력히 추천드리는 방법입니다
[15:26]
때로는 AI IDE에 5번이나 10번의
[15:28]
요청을 보내 여러 기능을 구현하다가
[15:30]
5번 전 요청에서
[15:32]
프로젝트가 완전히 망가진 것을
[15:34]
깨달을 수 있기 때문에 백업이 있다면
[15:36]
작업 중간중간 백업해두면
[15:38]
정상 상태로 복구할 수 있습니다. 그렇지 않으면
[15:40]
프로젝트가 완전히 망가진 상태에
[15:42]
빠질 수 있는데
[15:44]
너무 많이 진행되어서
[15:46]
돌아갈 수 없게 됩니다. Git이 이런 상황의 구원자죠
[15:48]
이것이 제가 이 서버를 매우 좋아하는 이유입니다
[15:50]
그리고 만약
[15:52]
장기 메모리가 필요하다면
[15:54]
AI IDE 내에서 RAG를 구현할 수 있고
[15:56]
다른 많은 도구들이 있습니다. 예를 들어
[15:58]
Quadrant MCP 서버가 있죠
[16:00]
자세히 설명하진 않겠지만, 많은 AI IDE들은
[16:03]
Windsurf처럼 이미 메모리 기능이 있어서
[16:05]
여기서 메모리를 관리할 수 있고
[16:07]
자동으로 생성해줍니다. 지금은
[16:09]
빈 상태이지만, 원하면
[16:11]
프로젝트 간에 메모리를
[16:12]
추적하도록 요청할 수 있습니다
[16:15]
이런 기능이 필요 없을 수도 있지만
[16:16]
MCP 서버들은 여전히 훌륭합니다. 자, 이제
[16:19]
이것들을 모두 설정했으니, Windsurf로
[16:21]
돌아가서 설정을 열어보겠습니다
[16:22]
여기 MCP 설정을 클릭하면
[16:24]
MCP config.json이 있습니다
[16:27]
보시다시피 파일 시스템, Brave 검색, Git이 있고
[16:33]
이 영상의 범위를 벗어나지만
[16:35]
제가 만든 AI 에이전트 빌더인
[16:37]
Archon도 Windsurf에
[16:39]
통합되어 있습니다. 이 모든 서버들은
[16:41]
여기 문서에 설명된 대로
[16:43]
따라하면 됩니다
[16:46]
MCP를 설정하고 나서
[16:49]
제가 설명한 대로 프로젝트에서 활용하면
[16:51]
많은 도움이 될 것입니다
[16:53]
이제 AI IDE에 초기 프롬프트를
[16:56]
입력할 시간입니다. 우리는 MCP 서버를
[16:58]
설정했고, 전역 규칙도 설정했으며
[17:00]
계획과 작업 문서도
[17:02]
만들어두었습니다
[17:04]
여기서 강조하고 싶은 점은
[17:07]
이런 문서들이 있더라도
[17:08]
AI에 상위 수준의 세부 사항을 제공하지만
[17:11]
초기 프롬프트는 매우 구체적이어야 합니다
[17:14]
왜냐하면 이것이
[17:16]
프로젝트의 전체 시작점을 결정하기 때문이며
[17:18]
이것이 바로
[17:20]
우리의 황금률 중 하나입니다
[17:22]
원하는 바를 매우 상세하게 설명하는 것이
[17:24]
프로젝트에 따라 다양한
[17:26]
의미를 가질 수 있지만, 핵심 조언은
[17:28]
AI에 많은 문서와
[17:30]
예시를 제공하라는 것입니다
[17:33]
예시와 문서를 제공하는
[17:34]
방법에는 세 가지가 있습니다
[17:36]
첫 번째는 많은 AI IDE들이
[17:39]
문서를 가져오는 기능이
[17:41]
내장되어 있다는 것입니다
[17:44]
예를 들어 Windsurf에서는 @MCP를 입력하고
[17:46]
탭을 누르면
[17:49]
MCP 문서가 LLM 프롬프트에
[17:52]
포함됩니다. RAG를 내부적으로 사용해서
[17:55]
문서를 검색하고
[17:56]
이를 활용해 답변을 보강합니다
[17:59]
Cursor와 같은 다른 AI IDE에서도
[18:01]
비슷한 작업을 할 수 있습니다
[18:03]
또 다른 옵션은 Brave MCP 서버나
[18:06]
다른 웹 검색용 MCP 서버를 사용하는 것입니다
[18:09]
이를 통해 인터넷을 검색하고
[18:10]
원하는 라이브러리나 도구에 대한
[18:12]
문서를 찾을 수 있습니다
[18:14]
이를 통해
[18:16]
예를 들어 웹을 검색해서
[18:18]
다른 MCP 서버 구현 사례나
[18:21]
문서를 찾아 예제와 문서를 참고할 수 있죠
[18:23]
아니면 이 예제 프롬프트처럼
[18:25]
직접 수동으로 제공할 수도 있습니다
[18:27]
지금 우리가 사용할 프롬프트에서는
[18:28]
Supabase MCP 서버를 만들기 위해
[18:31]
GitHub 저장소 링크를 제공했는데
[18:33]
이미 구현되어 있는
[18:35]
Python MCP 서버의 예제를 참고하려고 합니다
[18:39]
이 예제를 일종의
[18:41]
문서로 활용하면서 동시에 MCP와 Supabase의
[18:43]
공식 문서도 상단에 명시했습니다
[18:46]
이것은 제가 만들고자 하는 것에
[18:48]
매우 구체적인 프롬프트의 예시입니다만
[18:50]
이것을 템플릿으로 활용하시면 됩니다
[18:53]
문서를 언급하고, 예제를 제시하고
[18:54]
구체적으로 무엇을 만들지 명시하면
[18:57]
아주 구체적으로 설명해야 합니다
[18:59]
그러면 훨씬 더 좋은
[19:01]
결과를 얻을 수 있죠. 단순히
[19:03]
'Supabase MCP 서버를 만들어줘'라고 하는 것보다
[19:06]
자, 이제 이 프롬프트를 가지고
[19:08]
Windsurf로 가보겠습니다. 이미 입력해 놨는데
[19:10]
이제 실행해보고 어떻게 동작하는지
[19:12]
지켜보도록 하겠습니다. 재미있는 점은
[19:15]
프롬프트에서 planning.md 파일을
[19:16]
전혀 언급하지 않았음에도
[19:19]
MCP와 Supabase 문서를 가져온 후에
[19:21]
이를 참조할 것입니다. 왜냐하면
[19:24]
우리가 이미 설정해둔
[19:26]
프로젝트 레벨 규칙에
[19:28]
이 작업공간의 전역 규칙으로
[19:29]
지정되어 있기 때문이죠. 먼저 제가 제공한
[19:32]
GitHub 예제를 살펴보고
[19:35]
문서들을 검토한 다음
[19:36]
Brave 웹 검색을 통해
[19:39]
Supabase Python 클라이언트 문서를 찾고 있네요
[19:41]
많은 작업을 하고 있고
[19:43]
많은 플로우 크레딧이 사용되고 있지만
[19:46]
최상의 시작점을 갖는 것이 중요하기에
[19:48]
초반에 이렇게 많은 작업을 하는 것이
[19:50]
일반적으로 문제되지 않습니다
[19:52]
물론 필요하다면 초기 작업량을
[19:54]
줄이도록 프롬프트를 수정할 수도 있죠
[19:57]
자, 이제 문서 검색을 모두
[20:00]
마치게 두고
[20:02]
다음 단계로 넘어가면
[20:04]
돌아오도록 하겠습니다. 좋습니다
[20:06]
모든 문서 검토를
[20:07]
마쳤네요. 보세요
[20:08]
이제 planning과 tasks 파일을
[20:10]
분석하는 단계로 넘어갔습니다
[20:12]
추가 컨텍스트를 모두 가져오고
[20:15]
흥미롭게도 디렉토리를
[20:16]
만들려고 하네요. 아, 그렇죠
[20:18]
이미 테스트 작성을 계획하고 있어요
[20:19]
전역 규칙을 잘 따르고 있네요
[20:21]
디렉토리 생성을 진행하도록 하죠
[20:22]
자, 여기 Supabase
[20:24]
MCP 테스트가 있고
[20:26]
이제 코딩을 시작하려고 합니다
[20:28]
requirements.txt부터 시작하고
[20:30]
그 다음에 아마도... 맞죠
[20:32]
server.py 생성으로 넘어가네요
[20:33]
이 작업은 시간이 좀 걸릴 텐데
[20:35]
꽤 많은 코드가
[20:36]
들어가야 하기 때문입니다
[20:38]
그래서 잠시 중단했다가
[20:40]
서버의 첫 번째 구현이 완료되면
[20:41]
다시 돌아오도록 하겠습니다. 보세요
[20:43]
Windsurf가 단 하나의 프롬프트로
[20:45]
Supabase MCP 서버를 완성했습니다
[20:48]
그리고 이것은 단순한 구현이 아닙니다
[20:50]
이건 기본적인 구현이 아닙니다. 거의 300줄에 달하는
[20:52]
코드이고 정말 잘 작성되었습니다. 우리는
[20:55]
레코드를 삭제하고 업데이트할 수 있으며
[20:58]
레코드를 생성할 수 있고
[21:01]
마지막으로 테이블의 행을 읽을 수 있는 도구도 있습니다
[21:04]
이것은 WindInsurfer가
[21:07]
MCP 문서를 정확히 이해했다는 것을 보여줍니다
[21:09]
Supabase 클라이언트를 설정하고
[21:11]
모든 도구를 정의하는 방식까지
[21:12]
문서를 완벽히 읽고 이해했으며
[21:15]
우리의 계획과 작업 마크다운 파일을 종합하여
[21:17]
이 멋진 코드를 만들어냈습니다
[21:19]
그리고 작업 마크다운 파일을 보면
[21:21]
작업들이 완료된 것으로 표시되어 있습니다
[21:23]
하지만 테스트는 만들지 않았고
[21:25]
README도 업데이트하지 않았네요
[21:27]
테스트 폴더는 만들었지만
[21:28]
실제 테스트는 작성하지 않았어요
[21:30]
이건 좀 이상하네요
[21:32]
때때로 이런 이상한 동작이 발생하는데
[21:34]
글로벌 규칙은 이해하지만
[21:35]
원하는 모든 것을 수행하지는 않습니다
[21:37]
하지만 괜찮습니다
[21:38]
후속 프롬프트로 해결할 수 있으니까요
[21:40]
잠시 후에 보여드리겠습니다
[21:42]
하지만 먼저
[21:43]
이것이 실제로 작동하는지 테스트해보겠습니다
[21:45]
이제 로컬에 MCP 서버가 생성되었고
[21:47]
MCP 서버 생성에 대한
[21:50]
전용 영상을 만들고 싶습니다
[21:52]
관심 있으시다면 댓글로 알려주세요
[21:54]
지금은 구현과 실행 부분은
[21:55]
간단히 넘어가겠습니다
[21:57]
이 영상의 목적은
[21:58]
AI를 활용한 코딩 프로세스를 보여주는 것이지
[22:00]
MCP 서버 만들기가 아니니까요
[22:03]
어쨌든 Cloud Desktop에서
[22:05]
서버를 연결해보겠습니다
[22:07]
좌측 상단의 파일 설정으로 가서
[22:09]
개발자를 클릭하고 구성 편집을 클릭하면
[22:12]
구성 폴더가 열립니다
[22:14]
cloudmcpconfig.json 파일로 이동할 수 있습니다
[22:17]
cloudmcpconfig.json
[22:19]
파일이 WindSurf에서 열려있네요
[22:21]
여기에 Cloud Desktop용
[22:23]
모든 서버가 설정되어 있습니다
[22:26]
Supabase를 추가하기 위해
[22:28]
이 줄을 추가했는데
[22:30]
Python 실행 파일 경로를 지정했습니다
[22:32]
특히 생성한 가상 환경 내에서요
[22:34]
다시 말하지만 이런 세부사항은
[22:35]
이 영상에서 중요하지 않습니다
[22:37]
서버 만들기에 대한 후속 영상을 만들겠습니다
[22:39]
그 다음에는
[22:41]
WindSurf가 방금 만든 서버를 가리키는
[22:43]
인수들이 있습니다
[22:45]
그리고 환경 설정에는
[22:47]
가려진 부분이 있는데
[22:49]
Supabase의 URL과 서비스 키를 전달하고 있습니다
[22:52]
이 모든 설정을 마치면
[22:54]
Cloud Desktop을 재시작하고
[22:56]
사용 가능한 MCP 도구들을 열면
[22:58]
첫 번째 Supabase 도구로 스크롤해보죠
[23:00]
여기 있네요
[23:02]
테이블 레코드 생성이 있고
[23:04]
다른 세 가지 도구도 있습니다
[23:05]
도구 목록을 스크롤하면
[23:07]
찾을 수 있을 겁니다
[23:08]
이제 이런 걸 물어볼 수 있죠
[23:10]
음... document metadata 테이블에
[23:13]
어떤 레코드들이 있나요? 이건 제가 다른 영상에서
[23:18]
N8N으로 RAG 작업할 때 만든
[23:20]
테이블입니다
[23:23]
이제 Supabase 도구를 호출할 거예요.
[23:25]
이 대화를 허용하겠습니다.
[23:27]
저는 단 한 번의 프롬프트만 했어요.
[23:29]
아직 후속 프롬프트는 전혀 하지 않았는데도
[23:32]
보세요, 우리는 단번에 성공했습니다.
[23:34]
Windsurf가 있는 Supabase MCP 서버를
[23:37]
이 전략으로 구현했고, 이것은
[23:39]
제가 설정한 규칙들과
[23:42]
문서 검색,
[23:43]
예제 제공 등이 없었다면
[23:45]
불가능했을 겁니다.
[23:47]
저도 실제로 매우 놀랐어요.
[23:50]
이것은 상당히 큰 구현이었는데
[23:53]
한 번에 성공적으로 해냈습니다.
[23:55]
이것들이 실제로 제가 가지고 있는
[23:57]
Supabase의 문서 메타데이터 테이블의
[23:59]
레코드들이에요. 정말 멋지죠.
[24:02]
이제 이 시점에서 우리는
[24:04]
MCP 서버의 좋은 상태를 가지고 있으니
[24:06]
git으로 저장해서 나중에
[24:08]
문제가 생겼을 때
[24:09]
AI IDE가 뭔가를 망가뜨렸을 때
[24:12]
readme를 추가하거나
[24:14]
서버 기능을 수정하거나
[24:16]
테스트를 추가할 때 되돌릴 수 있게 할게요.
[24:18]
새로운 대화창을 열어서
[24:21]
이 프로젝트를 위한 git 저장소를 만들고
[24:25]
커밋하도록 지시할 겁니다.
[24:28]
git MCP 서버를 사용하거나
[24:31]
이런 AI IDE들이 기본적으로 제공하는
[24:33]
git 저장소 관련 명령어들을 사용할 수 있어요.
[24:36]
예를 들어 이 경우에는
[24:38]
도구 사용을 시도했다가 실패해서
[24:40]
이제 터미널에서
[24:41]
git status를 사용하고 있는데
[24:43]
이것도 잘 작동합니다.
[24:45]
네, git 저장소가
[24:47]
초기화된 것 같네요. 전에
[24:49]
한 번 실행해봤었는데
[24:51]
그래서 git 저장소가
[24:52]
이미 만들어져 있었어요. 이제 .gitignore를
[24:54]
만들고 있는데 좋아 보이네요.
[24:56]
이건 꼭 필요하죠. 이제 git add
[24:58]
명령어를 실행하고 있고, 다시 말하지만
[25:00]
git MCP 서버로도 할 수 있지만
[25:02]
저는 그냥 명령어를 사용할게요.
[25:04]
status를 실행하고 마지막으로
[25:07]
커밋을 만들 거예요.
[25:09]
자, 됐습니다. 커밋을 만들었고
[25:11]
이제 모든 것이 저장됐어요.
[25:13]
나중에 이 커밋으로 되돌아오라고
[25:15]
요청할 수 있고, 뭔가 잘못되면
[25:17]
현재 상태로 돌아올 수 있죠.
[25:20]
이제 이것도 완료됐으니
[25:23]
다음 단계로 넘어갈 수 있습니다.
[25:25]
테스트를 만들고 빠진 것들을
[25:27]
처리할 거예요. readme 같은 것들이요.
[25:29]
이제 메인 문서로
[25:31]
돌아가보면
[25:32]
6단계와 7단계를
[25:34]
동시에 처리할 겁니다. 6단계는
[25:37]
초기 프롬프트 이후
[25:39]
프로젝트를 어떻게 발전시키는지 보여주고
[25:41]
여기서 중요한 것은
[25:43]
한 번에 하나의 변경사항만 요청하라는
[25:46]
황금률이에요. 제가 좋은 예시와
[25:48]
나쁜 예시를 가지고 있는데
[25:52]
중요한 점은 LLM에
[25:53]
과도한 요청을 하지 않는 거예요.
[25:56]
우리의 경우
[25:57]
구현하고 싶은 것들이
[25:59]
몇 가지 있죠. readme와
[26:01]
프로젝트 문서를 만들어야 해요.
[26:03]
우선 처음에는 문서화를 하지 않았는데,
[26:05]
그리고 다음으로 우리가
[26:06]
바로 처리해야 할 것은
[26:08]
7번 섹션으로 넘어가서
[26:10]
우리의 Supabase MCP 서버의 초기 버전에 대한
[26:12]
테스트를 만드는 것입니다.
[26:15]
서버에서 만든 각각의 도구에 대해
[26:18]
단위 테스트를 만들도록 LLM에 요청할 것입니다.
[26:20]
여기 테스트에 대한 모범 사례를 정리했는데,
[26:22]
이것들이 바로 우리가
[26:24]
LLM에게 제공하고자 하는 내용입니다.
[26:26]
이는 전역 규칙에서 설정할 수 있죠.
[26:29]
제가 제공한 이 템플릿에서
[26:30]
전역 규칙을 위해 우리가 본
[26:33]
테스트 모범 사례 섹션의 모든 내용을
[26:35]
여기에 그대로 나열했습니다.
[26:37]
따라서 여러분이 직접
[26:39]
모킹이 정확히 무엇인지 이해하지 않아도
[26:41]
LLM에게 규칙으로 제공할 수 있습니다.
[26:42]
우리는 테스트를 위한
[26:44]
전용 디렉토리를 가지고 싶고
[26:46]
데이터베이스와 LLM 호출을 모킹하여
[26:48]
실제로 사용하지 않게 할 것입니다.
[26:50]
테스트가 빠르고 무료여야 하기 때문이죠.
[26:53]
또한 성공 시나리오를 테스트하고
[26:55]
에러 처리가 제대로 되는지 확인하며
[26:57]
엣지 케이스도 테스트해야 합니다.
[26:59]
이 모든 것을 전역 규칙으로 포함시켰고
[27:01]
이제 윈드서프로 돌아가서
[27:03]
새로운 대화를 시작할 수 있습니다.
[27:06]
server.py에 대한 테스트를 만들어달라고
[27:08]
요청할 수 있고
[27:12]
여기 이미 있는 테스트 디렉토리를
[27:14]
지정할 수 있습니다.
[27:17]
디렉토리가 너무 많아 보이네요.
[27:19]
그래서 그것들을 삭제하고
[27:21]
tests 디렉토리만 지정하겠습니다.
[27:24]
자, 이렇게 했고
[27:25]
더 자세한 설명을 추가하면
[27:27]
도움이 될 수 있겠지만
[27:28]
전역 규칙 덕분에
[27:31]
우리가 별도로 프롬프트에서
[27:33]
지시하지 않아도 모범 사례를 따를 것입니다.
[27:35]
그래서 여기서는 간단하게 할 수 있죠.
[27:38]
자, 이제 잠시 중단하고
[27:40]
초기 테스트 생성이 완료되면
[27:42]
다시 돌아오겠습니다.
[27:44]
좋습니다. 윈드서프가 서버에 대한
[27:47]
모든 테스트를 생성했는데
[27:49]
처음에는 12개의 테스트는 통과했지만
[27:52]
2개가 실패했습니다.
[27:54]
그래서 몇 가지 후속 프롬프트로
[27:56]
약간의 반복 작업을 거쳤고
[27:57]
그 후에는 아주 잘 작동하게 되었습니다.
[27:59]
이제 터미널에서
[28:02]
pytest 명령어를 실행하고
[28:04]
루트 디렉토리에서
[28:06]
테스트 폴더를 지정하면 됩니다.
[28:08]
보세요, 14개의 테스트가 모두 통과됐습니다.
[28:11]
14개인 이유는 각각의 도구에 대해
[28:14]
성공, 실패, 엣지 케이스 시나리오를
[28:17]
테스트하기 때문이고
[28:20]
거기에 몇 가지가 더 추가되어
[28:21]
환경 변수를 사용한
[28:23]
수명 주기 테스트도 있습니다.
[28:25]
이는 정말 포괄적이에요.
[28:26]
이 파일은 거의 500줄에 달하는 대규모 코드입니다.
[28:30]
보통 테스트 파일이 이렇게 되는데
[28:32]
때로는 기본 파일보다도
[28:34]
더 길어질 수 있습니다.
[28:35]
모든 시나리오를 다루어야 하기 때문이죠.
[28:38]
모든 경우를 테스트해야 하니까요.
[28:40]
다양한 시나리오를 모두 확인해야 하고
[28:42]
이러한 테스트들은 매우 견고하며
[28:44]
모든 것이 모킹되어 있어 아주 완벽합니다.
[28:46]
이제 우리는 Supabase MCP 서버의
[28:48]
첫 번째 버전을 완성했고 정상 작동합니다.
[28:51]
Cloud Desktop에서 테스트도 마쳤고
[28:52]
단위 테스트도 모두 완료되었습니다.
[28:55]
이제 필요한 부분을 반복적으로 개선할 수 있고
[28:57]
README 파일도 작성할 수 있습니다.
[29:01]
이 모든 과정에서
[29:02]
tasks와 planning 마크다운 파일을
[29:05]
계속 최신 상태로 유지해야 합니다.
[29:07]
이는 매우 중요한 컨텍스트이기 때문입니다.
[29:08]
특히 새로운 대화를 시작할 때
[29:10]
이제 Supabase MCP 서버를
[29:12]
개선하기 위한
[29:14]
다양한 작업들이 남아있습니다.
[29:16]
하지만 이는 오프카메라로 진행하겠습니다.
[29:18]
지금까지 전체 워크플로우를
[29:19]
충분히 설명했기 때문입니다.
[29:22]
마지막 단계는 프로젝트 배포입니다.
[29:24]
여러분이 만든 것이 배포할 준비가 되면
[29:26]
클라우드에 업로드하거나
[29:28]
다른 사람들과 공유하기 위해 패키징할 때
[29:31]
AI 코딩 어시스턴트의 도움을 받을 수 있습니다.
[29:33]
제가 선호하는 방식은
[29:35]
Docker나 Podman 같은
[29:37]
유사한 서비스를 활용하는 것입니다.
[29:38]
가장 좋은 점은 LLM이 Docker와 잘 작동한다는 것입니다.
[29:41]
Docker는 오랫동안 사용되어 왔고
[29:43]
인터넷상에
[29:45]
수많은 예제들이 있어서
[29:47]
LLM 학습에 활용되었기 때문입니다.
[29:48]
따라서 애플리케이션을 패키징하고 배포하기 위한
[29:51]
Dockerfile 생성을 도와줄 수 있습니다.
[29:54]
심지어 사용할 명령어까지 제공해 줍니다.
[29:57]
예를 들어, 여기 제가 사용한
[29:58]
프롬프트가 있는데
[30:00]
MCP 서버를 위한 Dockerfile을 작성하고
[30:02]
requirements.txt 파일에 있는
[30:04]
Python 요구사항을 모두 포함하여
[30:06]
컨테이너 빌드 명령어까지 제공해 달라고 했습니다.
[30:08]
이미 완료했는데, 여러분을 지루하게 하지 않기 위해
[30:10]
기다리는 과정은 생략했습니다.
[30:12]
MCP 서버를 패키징하기 위한
[30:13]
Dockerfile을 만들었고
[30:15]
별도 명령으로 README도 생성했습니다.
[30:18]
한 번에 한 가지씩 진행한다는 것을 기억하세요.
[30:21]
README에는
[30:22]
모든 실행 방법이 포함되어 있습니다.
[30:24]
Git에서 설치하는 방법부터
[30:26]
모든 실행 지침이 상세히 설명되어 있습니다.
[30:29]
참고로, 이 지침들을 따라
[30:31]
여러분도 직접
[30:33]
Supabase MCP 서버를 실행해볼 수 있습니다.
[30:35]
정말 멋진 일이죠. 이 영상에서
[30:38]
완전히 작동하는 예제를 만들었습니다.
[30:40]
컨테이너를 빌드한 다음
[30:42]
Cloud Desktop이나 Winds Surf,
[30:44]
Cursor 등에서 설정을 구성할 수 있습니다.
[30:47]
이 설정 예제를 사용하면 됩니다.
[30:50]
시작하는 데 필요한 것은 이게 전부입니다.
[30:52]
이제 배포가 완료되었고
[30:54]
여러분도 이 저장소를 클론해서
[30:56]
직접 실행해볼 수 있습니다.
[30:58]
이것이 전체 프로세스입니다.
[31:00]
문서 기획부터 구현, 테스트,
[31:02]
문서화, 그리고 배포까지
[31:04]
말 그대로 처음부터 끝까지 완성했습니다.
[31:07]
모든 것을 다루었죠.
[31:10]
솔직히 이 영상을 준비하고
[31:12]
녹화하는 데 매우 오랜 시간이 걸렸습니다.
[31:16]
이 프로세스가 여러분에게
[31:18]
도움이 되었기를 바랍니다.
[31:19]
일부 세부 내용은
[31:21]
다른 영상에서 더 자세히 다룰 수 있을 것 같고
[31:24]
MCP 서버를 처음부터 구축하는
[31:26]
전체 과정을 다루는
[31:28]
영상도 만들고 싶습니다.
[31:30]
MCP 서버에 대해 더 자세히 설명하는
[31:33]
영상을 원하시는지
[31:35]
댓글로 알려주세요.
[31:36]
이 영상이
[31:37]
AI를 활용한 코딩에서
[31:39]
더 효율적으로 일할 수 있도록
[31:41]
도움이 되었길 바랍니다.
[31:43]
여러분의 프로세스가
[31:45]
어떤지 궁금합니다.
[31:46]
제가 소개한 방법에
[31:48]
추가하고 싶은 것이 있거나
[31:50]
잘 작동하는 다른 방법이
[31:51]
있다면 댓글로 알려주세요.
[31:53]
이런 강력한 도구를 사용하는 데
[31:55]
만능 해결책은 없습니다.
[31:57]
저는 단지 제게 잘 맞는 방법을
[31:58]
공유하고 싶었을 뿐입니다.
[32:00]
이 영상이 도움이 되었고
[32:01]
AI 코딩과 AI 에이전트에 대한
[32:04]
더 많은 내용을 기대하신다면
[32:06]
좋아요와 구독 부탁드립니다. 다음 영상에서 만나요!