우리는 진짜 Open Code 같은 솔루션이 필요합니다!

채널 아이콘
GosuCoder 구독자 9,180명

요약

이 영상에서는 Open Code를 로컬 모델(DevStral Small)과 함께 사용해 Flappy Bird 클론을 생성해보고, GPU 사용량과 스트리밍 성능을 모니터링합니다. CST Open Code와 Cloud Code, Claude 4, Gemini 2.5 Pro 등의 모델을 비교하며 비용과 효율, 무한 루프 이슈를 짚어봅니다. SST Open Code 레포 설정, opencode.json 배치, 인증 명령어 같은 실용 팁을 공유하며, 무료 AI 시대의 종말을 경고하고 오픈소스·로컬 모델의 중요성을 강조합니다. 마지막으로 소비자 투명성 문제를 지적하며 Cursor 요금제 변경 논란을 소개하고, 오픈소스 프로젝트 지지를 촉구합니다.

주요 키워드

Open Code Cloud Code Local Models DevStral Small Claude 4 Gemini 2.5 Pro SST Open Code opencode.json Cursor Augment Code

하이라이트

  • 🚀 Open Code를 사용해 로컬 모델(DevStral Small)로 Flappy Bird 클론을 생성해봤습니다.
  • 🔍 GPU 모니터링 결과, 스트리밍 응답이 빠르고 안정적으로 진행됐습니다.
  • 💡 Open Code는 Cloud Code 대체할 오픈소스 도구로, 로컬 모델 지원이 핵심 강점입니다.
  • 🛠️ 컨텍스트에 파일을 추가할 때 @ 대신 슬래시로 파일명 자동완성하는 팁을 공유했습니다.
  • 💸 Claude 4는 비용 대비 효율이 높았지만, Gemini 2.5 Pro는 무한 루프와 과금 이슈가 있었습니다.
  • 📂 SST Open Code 레포를 사용하고 opencode.json을 루트에 배치해야 안정적으로 작동합니다.
  • ⚙ clear 대신 new session 명령어를 사용해야 채팅 세션을 초기화할 수 있습니다.
  • 🎮 로컬 모델로 생성한 Flappy Bird 클론은 물리 엔진까지 기대 이상으로 잘 구현됐습니다.
  • 🏛 무료 AI 시대가 끝나가며, 수익성 문제를 고려해 로컬 모델과 오픈소스 솔루션 필요성이 강조됩니다.
  • ❗ Cursor의 요금제 변경 논란을 통해 소비자 투명성 부족 문제를 지적하고 오픈소스 지지를 호소했습니다.

용어 설명

Open Code

로컬 및 클라우드 모델을 지원하는 오픈소스 코드 어시스턴트 CLI 도구

Cloud Code

클라우드 기반 AI 코드 어시스턴트 플랫폼

DevStral Small

로컬에서 실행 가능한 가벼운 코딩 AI 모델

Claude 4

Anthropic에서 제공하는 고성능 AI 모델

Gemini 2.5 Pro

Google에서 제공하는 프리미엄 AI 모델

SST Open Code

Open Code의 공식 GitHub 저장소 중 하나로, 최신 커밋이 자주 올라오는 레포지토리

Augment Code

월 고정 요금으로 제공되는 AI 코드 어시스턴트 서비스

Cursor

AI 기반 코드 편집기이자 플랫폼으로, 최근 요금제 변경으로 논란이 있음

[00:00:00] Flappy Bird 클론 제작 시도

Open Code를 로컬 모델(DevStral Small)로 실행해 Flappy Bird 클론을 만들어보려고 합니다. 프로젝트 폴더에 opencode.json 설정 파일을 두고, 모델 리스트를 확인하는 과정이 설명됩니다.

화자가 오픈 코드를 로컬 모델로 실행하기 위한 설정을 시작하며, 플래피 버드 게임 재현 프로젝트에 대해 소개한다.
데브스트랄 스몰 모델의 성능에 대한 기대치를 낮추면서도, 비교적 괜찮은 코딩 모델이라고 언급한다.
오픈 코드 설정 과정을 보여주며, 이미 데브스트랄 스몰로 설정되어 있음을 확인하고 OpenAI에서 생성한 프롬프트를 사용한다.
로컬 모델의 실행 상태를 모니터링하며, GPU 사용량이 87-86%에 달하고 있음을 보여준다. AMD GPU는 녹화 소프트웨어용이고 RTX 5090은 따로 사용하지 않는다고 설명한다.
[00:01:03] GPU 사용량 및 스트리밍 성능

모델 로딩 후 첫 토큰 생성부터 스트리밍 응답 속도가 빠른지 확인합니다. GPU 사용량을 모니터링하며 실제 성능을 체크하는 모습을 보여줍니다.

오픈 코드를 클라우드 코드의 경쟁자로 소개하며, 장기적으로 로컬 모델을 사용할 수 있는 오픈소스 솔루션의 중요성을 강조한다.
클라우드 모델들에 대한 긍정적인 경험을 공유하며, Claude 4, Gemini 2.5 Pro, 데브스트랄과 함께 오픈 코드를 사용해본 결과가 만족스러웠다고 언급한다.
[00:01:48] Open Code 개요와 장점

Open Code를 Cloud Code 경쟁자로 소개하며, 로컬 모델을 지원하는 오픈소스 솔루션의 장점을 강조합니다. Cloud 모델과의 비교 경험도 간단히 언급합니다.

플래피 버드 클론 생성이 완료되었지만 프롬프트가 파일 생성에 대해 명확하지 않았던 것 같다며, 추가 요청을 통해 파일을 생성하도록 한다.
오픈 코드 사용 시 팁과 요령을 소개하기 시작하며, 첫 번째로 파일 추가 기능에 대해 설명하려고 한다.
OpenCode에서 파일을 컨텍스트에 추가하는 것이 어려웠다고 설명합니다. Claude Code나 Gemini CLI처럼 @ 기호를 사용할 수 없어서 'use the following /' 같은 문구 뒤에 파일명을 입력해야 자동완성이 작동한다고 합니다.
[00:02:44] 프롬프트와 파일 자동완성 팁

컨텍스트에 파일을 추가할 때 @ 기호 대신 슬래시(/) 뒤에 파일명을 입력하면 자동완성되는 팁을 공유합니다. 향후 @ 지원이 추가되길 기대한다고 언급합니다.

Claude 4와 OpenCode의 조합이 뛰어난 성능을 보인다고 평가합니다. 하루 종일 사용해서 6-7달러 정도만 사용했으며, Gemini 2.5 Pro보다 비용 효율적이라고 설명합니다.
[00:03:25] 모델별 효율성과 비용 분석

Claude 4는 효율적이고 가격도 합리적이었지만, Gemini 2.5 Pro는 무한 루프와 과금 이슈로 테스트 중 몇 차례 큰 비용이 발생했다는 경험을 나눕니다.

올바른 저장소 사용의 중요성을 강조합니다. SST OpenCode를 사용해야 하며, OpenCode AI 버전은 피해야 한다고 조언합니다. SST 버전이 더 많은 스타를 받았고 더 자주 업데이트된다고 설명합니다.
[00:03:54] 레포 선택 및 인증 방법

SST Open Code 저장소를 반드시 사용해야 하며, Open Code AI 레포는 피할 것을 권장합니다. 인증은 /login 명령을 통해 제공자별 크리덴셜을 입력해야 합니다.

Gemini 2.5 Pro 사용 시 무한 루프 문제를 경고합니다. 'old string not found' 오류가 반복되면서 비용이 급증할 수 있다고 설명하며, 온도 조정 등을 시도해봤지만 해결되지 않았다고 합니다.
다른 프로바이더 인증 방법을 설명합니다. /models 명령이 아닌 'OpenCode O login'을 실행해야 하며, 이 정보를 얻기 위해 소스 코드를 직접 검색하고 augment code를 사용해 저장소에 질문했다고 합니다.
OpenCode 설정 파일의 중요성과 일부 사용자들이 겪는 문제점에 대해 설명합니다. 발표자는 자신의 경험을 바탕으로 opencode.json.config 파일을 프로젝트 루트에 배치하면 잘 작동한다고 말합니다.
OpenCode에서 clear 명령어가 존재하지 않는다는 점을 지적하며, 대신 new session을 사용해야 한다고 설명합니다.
로컬 모델로 생성된 Flappy Bird 클론의 품질에 대해 놀라움을 표현합니다. 물리 엔진이 복잡하지만 전반적으로 훌륭하게 작동한다고 평가합니다.
[00:06:32] Flappy Bird 클론 결과 리뷰

생성된 클론을 실행해 보니 물리 엔진까지 기대 이상으로 잘 구현됐습니다. 오류 없이 툴 호출이 잘 작동하는 것을 확인할 수 있습니다.

OpenCode와 Devstrol의 협업 경험이 좋았다고 언급하며, LM Studio의 스트리밍 기능 제한에 대해 아쉬움을 표합니다.
오픈소스 솔루션과 로컬 모델의 필요성을 강조합니다. 많은 AI 회사들이 아직 수익을 내지 못하고 있으며, 무료 AI 시대가 끝나가고 있다고 경고합니다.
[00:07:29] 오픈소스와 로컬 모델 필요성

무료 AI 시대가 곧 끝날 것이며, 수익성 문제로 로컬 솔루션과 오픈소스 프로젝트 지원이 필수적이라고 강조합니다.

AI 코딩 도구들의 가격 정책에 대해 논의하며, Augment Code, Claude Max, Cursor 등의 서비스를 언급합니다. 특히 Cursor의 최근 논란스러운 변화에 대해 간략히 언급합니다.
한 사용자가 Claude Code Max로 2,152달러를 사용했다고 공유했는데, 70% 마진으로 운영한다고 주장하지만 실제로는 Claude에게 막대한 손실을 입히고 있다.
[00:08:40] 클라우드 모델 투명성 및 비용 비교

Cloud Code(Max)와 Cursor의 사용량·과금 정책 차이를 비교하며, 투명한 과금 체계와 소비자 친화적 제도를 지지합니다.

현재 사용량 정책에 대해 우려를 표명하며, 사용량이 모호하고 투명성이 부족하다고 지적. 타임아웃 방식은 선호하지만 더 투명한 정보 공개가 필요하다.
Cursor에 대한 불만을 토로하며, 1년 요금제를 결제했지만 회사가 지속적으로 정책을 변경하여 반소비자적 행태를 보인다고 비판.
Claude Code는 현재 매우 소비자 친화적이라고 평가하며, 합리적인 한도와 짧은 타임아웃 정책을 제공한다고 긍정적으로 언급.
Cursor의 새로운 가격 정책을 분석하며, 자동 모드의 무제한 사용과 프론티어 모델의 제한된 크레딧 시스템에 대해 회의적인 시각을 제시.
[00:11:30] Cursor 요금제 변경 논란

Cursor의 auto 모드 무제한 사용 주장과 실제 라우팅 방식, Frontier 모델 크레딧 제공 방식이 혼란스럽다는 점을 지적합니다.

Cursor의 정책 변경에 대한 실망감을 표현하며, 1년 요금제로 결제한 것과 다른 서비스를 받고 있다고 불만을 토로.
[00:12:07] 결론 및 오픈소스 지지 호소

Open Code, Root Code, Klein 등 여러 오픈소스 프로젝트의 성공을 기원하며, 로컬 모델 활용을 확대하기 위해 시청자들의 참여와 지지를 요청합니다.

타임라인 정보가 없습니다.

좋아요, 오픈 코드를 실행해보겠습니다.
하지만 이걸 로컬 모델로 해보고 싶어요.
제가 만든 이 플래피 버드 폴더의 루트에 있는 open code.json 파일을 보실 수 있습니다.
혹시 모르시는 분들을 위해 설명하면,
플래피 버드는 오래전에 나온 게임입니다.
아주 기본적인 게임이지만,
실제로는 바이럴이 되었죠.
그래서 우리는 데브스트랄 스몰이
오픈 코드와 함께 실제로 이걸 재현할 수 있는지 확인해보겠습니다.
제 추측으로는 아마 못할 것 같습니다.
제가 데브스트랄을 사용해본 경험으로는요.
하지만 한번 보죠. 놀라게 해줄지도 모르니까요.
비교적 괜찮은 코딩 모델이거든요.
그래서 우리가 할 일은
들어가서 오픈 코드를 열어보는 거예요.
여기서 보시면 이미 데브스트랄 스몰로 설정해놨습니다.
만약 설정이 안되어 있다면,
모델을 선택하러 가겠죠.
이미 인증된 모델들의 목록을 볼 수 있습니다.
일단 이건 닫을게요.
OpenAI에게 프롬프트를 생성해달라고 요청했습니다.
그래서 이걸 붙여넣기 해보겠습니다.
이게 얼마나 잘 작동할지 모르겠지만,
오픈 코드가 로컬 모델과 어떻게 작동하는지 보여드리고 싶었습니다.
정말 빠르게 로딩되고 있네요.
여기서 보시면,
첫 번째 토큰이 생성되었고, 스트리밍으로 출력하고 있습니다.
정말 잘 작동하네요.
GPU 사용량을 한번 봐보겠습니다.
GPU가 87-86% 정도를 차지하고 있습니다.
이 GPU는 AMD 것인데,
프로세서에 내장된 거고, 실제로는 제가 사용하는 녹화 소프트웨어 때문입니다.
RTX 5090에서는 실행하지 않고 있거든요.
그래서 이걸 실행시켜보겠습니다.
뭘 생성할 수 있는지 보죠.
그 동안 이걸 옆으로 옮겨놓고,
오픈 코드에 대해 이야기해보겠습니다.
여기서 진행상황을 모니터링할 수 있도록 해놨습니다.
오픈 코드는 실제로 클라우드 코드의 경쟁자입니다.
그리고 제게는 장기적으로
로컬 모델을 사용할 수 있는
오픈소스 솔루션을 갖는 것이 매우 중요합니다.
그게 제 꿈이에요. 우리가 가야 할 방향이죠.
하지만 많은 분들이 아시다시피
저는 오늘날 클라우드 코드의 큰 팬입니다.
클라우드 모델들도 정말 좋아해요.
실제로 오픈 코드를 Claude 4, Gemini 2.5 Pro, 그리고 데브스트랄과 함께 꽤 많이 사용해봤습니다.
하루 종일 데브스트랄을 사용해서
가벼운 작업들을 해봤는데 정말 잘 작동했어요.
오른쪽에서 보시면
실제로 플래피 버드 클론 생성이 완료되었습니다.
하지만 아마 프롬프트가 파일을 실제로 생성하는 것에 대해
충분히 명확하지 않았던 것 같아요.
그래서 그걸 하도록 요청해보겠습니다.
다시 말하지만, 이걸 OpenAI에서 복사해온 거라
많은 시간을 들여서 만들지는 않았어요.
네, 이제 저를 위해 만들어주고 있네요.
그럼 이게 진행되도록 놔두겠습니다. 팁과 요령들을 알려드리죠.
실제로 저를 처음 당황하게 만든 것 중 하나는
오픈 코드에 파일을 추가하는 것이었습니다.
그리고 클라우드 코드에 익숙하시다면,
하루 종일 데브스트랄을 사용해서
라이트 태스크들을 해봤는데 정말 잘 작동했습니다.
오른쪽에서 볼 수 있듯이
실제로 플래피 버드 클론 생성이 완료되었지만
프롬프트가 실제로 파일을 생성하는 것에 대해
충분히 명확하지 않았던 것 같습니다.
그래서 그걸 하도록 요청해보겠습니다.
다시 말하지만, 이걸 OpenAI에서 복사해온 거라
많은 시간을 들여서 만들지는 않았어요.
네, 이제 저를 위해 만들어주고 있네요.
그럼 이게 진행되도록 놔두겠습니다.
팁과 요령들을 알려드리죠.
실제로 저를 처음 당황하게 만든 것 중 하나는
오픈 코드에 파일을 추가하는 것이었습니다.
OpenCode에서 저를 좌절시킨 첫 번째 것은 파일을 컨텍스트에 추가하는 것입니다.
Claude Code에 익숙하시다면
@ 기호를 사용하고 파일명을 입력하는 방법을 알 텐데요.
Gemini CLI도 마찬가지로 @ 기호를 사용할 수 있습니다.
그 방식에 매우 익숙해져 있어서
아직도 OpenCode에서 계속 그렇게 시도하고 있습니다.
OpenCode에서 이를 할 수 있는 유일한 방법은
제가 타이핑하는 문장이나 줄의 시작 부분에 두지 않고
'다음 파일을 사용하세요 /'와 같이 말하고
그 다음에 support나 파일명을 입력하기 시작하면
자동완성이 나타납니다.
시간이 지나면서 @ 기호를 실제로 추가해주길 바랍니다.
왜냐하면 그게 정말 큰 차이를 만들 것 같거든요.
Claude 4는 OpenCode와 함께 사용하면 놀라운 성능을 보입니다.
제 평가에서 매우 높은 점수를 받았고
실제로 작업하기 매우 즐겁고
일반적으로 비용 효율적입니다.
하루 종일 간헐적으로 사용해서
몇 달러 정도 사용했다고 생각합니다.
아마 6-7달러 정도 사용한 것 같습니다.
다시 말하지만, 한 달 내내 사용하면 누적됩니다.
가격에 대해서는 잠시 후에 이야기하겠지만
여전히 Gemini 2.5 Pro에 비해서는
매우 효율적입니다.
SST OpenCode를 사용하고 있는지 확인하세요.
이것은 이 특정 GitHub 저장소입니다.
OpenCode AI 것을 사용하지 마세요.
SST OpenCode가 더 많은 스타를 받았고
더 최근에 업데이트되었습니다.
제가 여기에 들어올 때마다
하루 이내에, 아니면 어제라도
일어난 커밋들을 볼 수 있습니다.
정말 중요한 것은
올바른 저장소를 가져오는 것입니다.
Gemini 2.5 Pro를 사용하고 있다면
무한 루프를 주의하세요.
테스트를 위해 몇 개를 종료시켰는데
Claude 4로는 20달러 50센트 정도였을 것이
8달러 49센트가 되었습니다. 그냥 계속 실행시켜뒀거든요.
왼쪽에서 어떤 모습인지 보여드리겠습니다.
찾아보겠습니다.
네, 여기 있습니다.
여기서 보시면 이 오류가 계속 발생합니다.
'old string not found' 오류가 발생하고
계속 반복해서 루프를 돕니다.
그러니까 Gemini 2.5 Pro는 사용하지 마세요.
온도 조정 등을 최대한 시도해봤지만
루트 코드에서처럼 해결할 수 없었습니다.
0.7이 일반적으로 가장 좋다고 생각합니다.
이것도 좀 부끄럽지만
다른 프로바이더를 인증하려고 할 때
계속 /models를 시도했습니다.
이런 식으로 하려고 했는데
올바른 방법은 실제로 OpenCode O login을 실행하는 것입니다.
프로바이더를 선택하고 자격 증명을 입력하면
끝입니다. 완료됩니다.
이를 알아내기 위해 실제로 소스 코드를 검색해야 했습니다.
이것이 어딘가에 문서화되어 있을 것이라는 걸 알지만
프로젝트의 실제 소스 코드에 들어가기 전까지는
찾을 수 없었습니다.
그리고 augment code를 사용해서
저장소에 대한 질문을 했고
그래서 결국 답을 얻을 수 있었습니다.
그 답을 얻었습니다. 이 opencode.json.config가
정말 중요합니다. 이 부분에서 흥미로운 것은
몇몇 사람들이 제대로 작동하지 않는다고
보고했다는 점입니다. 하지만 저는 이것을
지금까지 4개의 다른 프로젝트에서 사용했습니다.
아니 5개겠네요, 이 작은 Flappy Bird 클론까지
센다면 말이죠. 하지만 저는 그냥 OpenCode config,
opencode.json config 파일을 프로젝트 루트에
넣고, 원하는 설정들을 입력하면
항상 잘 작동했습니다. 왜 어떤 사람들에게는
작동하지 않는지 모르겠지만,
혹시 JSON 파일을 찾는 과정에서
이상한 문제가 있을 수 있다고
지적해두겠습니다. 또 다른 문제는
제가 계속 실수하는 것인데,
clear 명령어를 실행하는 것입니다. 이 명령어는
실제로 존재하지 않습니다. 여기서 clear를
입력해보면, opencode에는 실제로 존재하지 않습니다.
언젠가는 추가될 것 같지만, 지금은
new session을 사용해야 합니다. clear를
추가하는 것이 그리 어렵지 않을 것 같지만,
아마 필요하지 않을 수도 있습니다.
그냥 익숙해지면 됩니다. 어쨌든,
이 Flappy Bird가 실제로 어떻게
생겼는지 한번 보겠습니다.
결과를 보면 여기 Flappy Bird 클론이
있는데, 물리 엔진이 너무 복잡해서
첫 번째 파이프도 통과할 수 없을 것 같습니다.
오, 거의 했네요. 오, 할 수 있을까요?
어쨌든, 이게 정말 놀랍도록 잘 만들어졌죠?
이것은 로컬 모델로 만든 것입니다.
opencode의 특별한 기능도 아니고,
툴 호출도 제대로 따랐습니다.
출력에서 어떤 오류도 없었습니다.
실제로 결과가 어떻게 나왔는지
보여드리겠습니다. 여기서 보시면
정말 잘 작동했습니다. 모든 것을 생성했고,
중력값도 조정할 수 있을 것 같습니다.
여기 설정할 수 있는 옵션들이 있을 것입니다.
정말 훌륭하게 작동합니다. Devstrol이
OpenCode와 함께 사용하기에 정말 즐거웠습니다.
다시 말하지만, 컨텍스트가 여기서
제한되는 이유는 LM Studio에서
스트리밍을 사용할 때 실제로
그 정보를 반환하지 않기 때문입니다.
이것은 아쉬운 부분입니다. 자, 이제
마무리하면서 하고 싶은 말은
우리에게 오픈소스 솔루션이 필요하다는 것입니다.
로컬 모델이 실제로 작동해야 합니다.
그 이유는 이런 회사들 중 많은 곳이
아직 수익을 내지 못하고 있기 때문입니다.
제가 이 이야기를 너무 자주 하는 것 같지만,
무료 AI 시대가 끝나가고 있습니다.
미래의 코딩은 매우 비쌀 것입니다.
이미 꽤 비싸지만, 우리는 월 50달러 고정 가격의
Augment Code같은 서비스가 있어서 다행입니다.
Claude Max는 월 100달러와 200달러 플랜이 있고,
Cursor는 지난 며칠 동안
꽤 논란이 된 변화를 겪었습니다.
이에 대해서는 잠시 후에 이야기하겠습니다.
이런 회사들 중 많은 곳이 가능한 한
많은 시장 점유율을 확보하려고 하지만,
수익을 내지 못하고 있습니다.
여기 실제로 Jared Sumner라는 사람의 예시가
있습니다.
그는 Claude Code Max 사용량을 공유했는데,
2,152달러를 70% 마진으로 책정했다고 하는데,
저는 이 부분에 대해 의구심을 가지고 있습니다.
지난 며칠 동안 상당히 논란이 된 움직임을
보여주었습니다. 많은 회사들이
가능한 한 많은 시장 점유율을 얻으려고
하지만 수익을 내지 못하고 있습니다.
실제로 Jared Sumner라는 사람의 예시가 있습니다.
그는 실제로
Claude Code Max 사용량을 공유했습니다
2,152달러
70% 마진으로 말인데, 저는 이게
Anthropic이 실제로 달성할 수 있는
클라우드 모델 수준인지 의심스럽습니다.
이들은 Claude에게 엄청난 손실을 입히고 있습니다.
이 돈은 API 사용료로 갈 수 있는 돈인데
그들이 10분의 1 가격으로
200달러를 지불하고 있습니다. 그래서 저는
시간이 지나면서 우리가 얻는 사용량이
매우 모호하다는 점이 조금 걱정됩니다.
맞죠? 우리는 실제로 얼마나 많은
사용량을 얻는지 잘 모릅니다. 우리는
그냥 타임아웃 상태가 되고 나서
다시 사용량을 얻게 되는데, 이건
저를 그리 많이 괴롭히지 않습니다. 사실
월간 한도보다는 이게 더 낫다고 생각합니다. 저는
몇 시간 동안 타임아웃 상태가 되고
나서 다시 돌아올 수 있는 것을
개의치 않습니다. 저는 이게 올바른 방법이라고
생각합니다. 더 많은 회사들이 이렇게 해야 한다고 생각합니다. 하지만
더 좋은 방법은 그냥
실제 사용량에 대해 가능한 한
투명하게 공개하는 것입니다. 그리고 현재
Claude Code의 사용량 투명성은
거의 없는 수준입니다. 우리는 그냥
Claude Max에서 더 많이 얻는다는 것만 압니다.
100달러로 5배 더 많이, 200달러 요금제로는 20배 더 많이 얻습니다.
하지만 Cursor는
Cursor는 몇 달이 지난 지금도 여전히
조금 쓴맛이 남는 회사입니다. 저는
Cursor 1년 요금제를 결제했는데 그들은
지난 1년 동안 너무 많은 것을 바꿨습니다.
정말 좌절스러웠습니다. 저는
실제로 Cursor에 대해 부정적인
영상을 몇 개 올렸고 사람들의 반응은
엇갈렸습니다. 어떤 사람들은
그들이 모든 사람을 대하는 방식에
완전히 만족하지만, 저에게는 이것이
반소비자적 행태입니다.
지금 현재 Claude Code나 Claude
Max는 매우 소비자 친화적이라고 생각합니다. 그들이
주는 한도는 매우 매우 후하다고 생각합니다.
그들은 우리를 한 번에 몇 시간씩만
타임아웃 상태로 만듭니다. 아마도
최대 6-7시간 정도가 제가
지금까지 타임아웃 상태였던 최대 시간인 것 같습니다.
반면 Cursor는 실제로
한 가지를 판매합니다. 제가 느낀 바로는
저에게 한 가지를 팔고
다른 것을 줬습니다. 그리고 이제 그들은
가격 정책을 완전히 바꿨습니다. 그래서
여기 요약을 바탕으로 새로운 가격 정책을
보여드리겠습니다. 자동 모드를 사용할 때
무제한 사용. 도대체 누가 자동 모드를
사용하고 싶어 하겠습니까? 자동 모드는
Claude, GPT-4, Gemini, XAI 중에서
무작위로 선택할 수 있습니다. 정말 끔찍해 보입니다. 그래서 어느 날은
자동 모드를 사용하면 훌륭할 수 있지만
몇 시간 후에는 끔찍해질 수 있습니다.
왜냐하면 그들이 실제 요청을
어디로 라우팅하는지 제어할 수 없고
그들의 최선의 이익을 위해
가장 저렴한 곳으로 보낼 것이기 때문입니다.
그래서 GPT-4로 갈 것입니다.
100% 더 저렴한 곳으로
갈 것입니다. 그다음에는
프론티어 모델에 대해 월 20달러 크레딧을 받습니다.
모델을 직접 선택하고 싶다면
Claude Sonnet을 선택하면
225개의 요청을 받는데, 이것도 조금
회의적입니다. 그들이 저에게 말하는 것은
각 요청이 대략 10센트 정도라는 것인데
맞나요? 제 생각에는 아마도
컨텍스트를 넣는다면 현실적으로
절반 정도는 받을 것 같습니다.
그다음에는 550개의 Gemini 요청을 받는데
이것도 믿지 않습니다.
특히 Gemini 2.5 Pro는 더 비싸기 때문입니다.
Flash에 대해 말하는 건지
궁금합니다. 어쨌든, 제 생각에는 이것이
조금 거칠다고 생각합니다. 그들이 왜
이렇게 하는지 이해합니다. 그들이 왜
이렇게 하는지 이해합니다.
하지만 이것은 제가 1년 치로 결제한 것이 아닙니다.
저는 이런 종류의 청구 방식을 위해
Cursor 1년 요금제를 미리 결제하지 않았습니다.
정말 안타깝습니다. 그리고 Claude
Code로 돌아가서, 지금은 놀랍지만
그것도 바뀔 수 있습니다. 만약 바뀐다면
제가 그것에 대해 이야기할 첫 번째 사람 중 하나가 될 것입니다.
그래서 여러분 모두가 저와 함께
Open Code, Root Code와 같은
오픈소스 프로젝트들을 응원하기를 바랍니다.
Klein과 그 외 모든 다른 프로젝트들도요.
그 중 하나가 정말로
극도로 성공해야 합니다. 그리고 그 중 하나가
로컬 모델을 많이 사용하기 시작해야 합니다.
이상적으로는 로컬 모델로
정말 좋은 일들을 할 수 있습니다.
하지만 지금은 여기서
마무리하겠습니다. 오늘 제가 이야기한
내용에 대해 어떤 생각이든 있으시면
알려주시기 바랍니다. Open Code를 사용해보셨다면
그것에 대한 생각도 듣고 싶습니다.
어쨌든, 다음 시간까지 모든 분들.