Anthropic에 이상한 기분이 드는 이유

채널 아이콘
Theo - t3․gg 구독자 439,000명

요약

이 영상은 개발자들이 Anthropic의 뛰어난 모델과 Cloud Code를 사랑하면서도, 오픈소스 커뮤니티에서 보여주는 태도와 비즈니스 운영 방식에는 심각한 이질감을 느낀다고 지적합니다. 경쟁사 접근 차단, 비공개 CLI, DMCA 요청, 과도한 가격 정책 등 구체적 사례를 들어 문제를 짚고, 도구 호출(tool calling) 우위가 점차 약화되고 있다고 경고합니다. 한편, 시스템 카드와 MCP 같은 긍정적 기여도 인정하면서 더 투명하고 책임 있는 기업 운영을 촉구합니다.

주요 키워드

Tool Calling Cloud Code Open Source DMCA Pricing Policy MCP System Cards GLM 4.5 Developer Experience Access Restriction

하이라이트

  • 🔑 뛰어난 AI 모델·Cloud Code가 있지만, 오픈소스 생태계에선 Anthropic의 행동이 자주 논란이 된다.
  • ⚡ 경쟁사 접근 차단: Windsurf나 OpenAI 직원조차 API 이용이 막히며 스스로 주장하는 ‘도덕적·공정한 회사’ 이미지를 훼손한다.
  • 📌 비공개 CLI 및 DMCA: Cloud Code를 비공개로 유지하고 역공학 시도한 개발자에게 저작권 경고를 보내는 건 오픈소스 철학 위배다.
  • 🚀 Tool Calling 우위 감소: 초기 도구 호출 성능 리드는 크지만, GLM 4.5·K2·GPT-4.1·Horizon 등 개방형 모델들이 빠르게 따라잡고 있다.
  • 💰 과도한 가격 정책: 대량 사용 조건부 5% 할인 하나만 제공하는데, 최소 6만 달러 약정을 요구하는 등 지나치게 비싼 요금 구조를 유지한다.
  • 🌟 긍정적 성과로는 자세한 시스템 카드 공개(MCP 표준)와 벤치마크 자료 제공이 있다.

용어 설명

Tool Calling

AI 모델이 외부 API나 도구(예: 날씨 정보 조회)를 직접 호출해 작업을 수행하는 기능

Cloud Code

Anthropic이 개발한 명령줄 인터페이스(CLI) 기반 AI 코딩 보조 도구로, 코드 작성·생성·검증을 지원

MCP

Model Cards Protocol(모델 카드 표준)로, AI 모델의 설계 의도·성능·제약사항을 문서화해 공개하는 포맷

DMCA

Digital Millennium Copyright Act(디지털 밀레니엄 저작권법)로, 저작권 침해 시 사용되는 미국 법적 조치

Open weight

학습된 모델의 가중치를 공개해 누구나 다운로드·커스터마이징·배포할 수 있게 하는 형태

System Cards

Anthropic이 모델 내부 설정·프롬프트 전략 등을 자세히 설명하며 연구자와 개발자에게 통찰을 제공하는 자료

[00:00:00] Anthropic에 대한 첫인상

개발자들이 Anthropic의 모델과 Cloud Code를 선호하는 이유와, 동시에 오픈소스·소프트웨어 커뮤니티에서 제공해야 할 책임감 측면에서 의구심이 드는 점을 간략히 소개합니다. 경쟁사 차단, DMCA 요청 등 어색한 행동들을 예고합니다.

개발자들이 Anthropic을 좋아하는 이유는 분명하지만, 화자는 그들이 오픈소스 세계의 좋은 관리자가 아니라고 생각한다고 언급합니다.
Anthropic이 여러 업체들의 접근을 차단하고, GitHub에서 코드 분석자들에게 DMCA 요청을 보내는 등 문제가 되는 행동들을 하고 있다고 비판합니다.
[00:00:34] 비판을 꺼내는 이유

직접 한 달에 3만1천 달러를 지출한 경험을 토대로 지금까지는 옹호해왔지만, 반복되는 문제 때문에 더 이상 침묵할 수 없다고 설명합니다. 오늘은 Anthropic에 대해 불만인 모든 포인트를 정리하겠다고 밝힙니다.

화자는 과거에 Anthropic을 변호했지만 실제로는 좋아하지 않으며, 지난달 31,000달러를 지불한 경험자로서 문제점들을 설명하겠다고 말합니다.
스폰서 소개로 넘어가며, AI가 코딩을 더 재미있게 만들어주지만 더 많은 코드를 작성하게 되면서 코드 리뷰 부담이 커졌다고 설명합니다.
[00:01:07] 코드 리뷰 혁신: Code Rabbit 소개

스폰서인 Code Rabbit를 통해 AI 기반 코드 리뷰 혁신 사례를 제시합니다. PR 요약, 다이어그램, 실제 코멘트로 수십 개의 버그를 사전에 잡아내고, 팀원들이 핵심 로직에 집중하도록 돕는 과정을 설명합니다.

Code Rabbit이라는 AI 코드 리뷰 도구를 소개하며, 처음엔 회의적이었지만 실제로는 코드 리뷰 방식을 근본적으로 바꿔놓았다고 평가합니다.
Code Rabbit이 프로덕션에 배포될 뻔한 수십 개의 버그를 잡아냈으며, 팀원들이 더 이상 문법 검사 같은 지루한 작업에 시간을 쓸 필요가 없게 되었다고 설명합니다.
Code Rabbit이라는 AI 코드 리뷰 도구의 장점을 설명하며, 팀의 작업 방식을 학습하고 규칙을 설정할 수 있어 개발자들이 핵심 업무에 집중할 수 있다고 소개합니다.
Code Rabbit이 빠른 리뷰로 팀원들에게 불편을 끼치지 않고 AI가 대신 처리해주므로, 중요한 세부사항에만 집중할 수 있다고 강조합니다.
Anthropic의 문제점들을 다룰 것이라고 예고하며, 접근 차단, 나쁜 오픈소스 행태, 선량한 척하는 태도, 터무니없는 가격 정책을 언급합니다.
[00:03:24] 핵심 비판 포인트 개관

이번 영상에서 다룰 주요 비판 항목을 네 가지로 정리합니다: 경쟁사 접근 차단, 오픈소스 비협조, 거만한 태도, 그리고 과도한 가격 정책. 각각의 사례를 차례로 살펴보겠다고 예고합니다.

타임라인 정보가 없습니다.

[00:03:40] 경쟁사 접근 차단 사례

Wind­s­urf, OpenAI 직원 등을 API에서 차단한 사건을 짚으며, ‘도덕적·공정한 AI 민주화’라는 사명과 정반대인 행동이라고 지적합니다. 리크된 CEO 메모까지 인용해 행위의 모순을 부각합니다.

OpenAI 직원의 풍자적인 인용문을 통해 Anthropic이 경쟁사들의 모델 접근을 차단하는 최근 논란을 소개합니다.
Anthropic이 인류를 위한 선한 회사로 포지셔닝하려 하지만, CEO의 유출된 메모에서 드러나는 모순적인 비즈니스 접근 방식을 비판합니다.
Anthropic이 겉으로는 사려 깊은 회사를 표방하지만 실제로는 일반적인 비즈니스일 뿐이라는 점을 지적합니다.
화자는 현재 주요 AI 랩들 중 Anthropic이 가장 적게 기여하고 있다고 비판합니다. MCP라는 표준은 있지만, Claude Code는 유일하게 오픈소스가 아닌 CLI 도구이며, 리버스 엔지니어링을 시도하는 사람들에게 DMCA 조치를 취한다고 지적합니다.
[00:04:59] 오픈소스 철학 위배

Cloud Code를 유일하게 비공개 CLI로 유지하며, 역공학 시도자에게 DMCA 요청을 남발하는 행태를 문제 삼습니다. Google·OpenAI가 모두 CLI를 오픈소스로 전환하는 것과 대조하여 Anthropic의 비협조적 모습을 비판합니다.

Claude Code 개발자의 인터뷰 영상을 인용하며, 그들이 내부적으로 사용하는 생산성 도구를 '비밀 소스'라고 부르며 공개를 망설였다는 발언을 소개합니다. 화자는 이러한 태도를 오만하고 역겨운 것으로 평가합니다.
[00:06:16] Tool Calling 우위와 경쟁 현황

Anthropic 모델이 초기에 도구 호출을 가장 안정적으로 지원해 개발자 생태계를 선점했으나, GLM 4.5·K2·GPT-4.1·Horizon 같은 오픈웨이트 모델들이 빠르게 따라잡고 있다고 분석합니다. 경쟁 구도가 급변 중임을 경고합니다.

Anthropic이 현재 관련성을 유지하는 유일한 이유는 툴 콜링에서의 초기 우위라고 주장합니다. AI 도구나 에이전트를 구축할 때 Anthropic 모델들이 도구 호출 형식을 이해하고 실행하는 데 뛰어났다고 설명합니다.
과거에는 툴을 안정적으로 호출할 수 있는 옵션이 많지 않아서 Anthropic이 큰 이점을 가졌다고 분석합니다. Gemini 2.5 Pro의 불안정한 성능을 예로 들며, 여전히 Anthropic 모델이 최고라고 평가하지만 이제 GLM 4.5와 Kimmy K2 등의 경쟁자들이 나타나고 있다고 언급합니다.
Anthropic이 직면한 가장 큰 위기는 GLM 4.5와 Kimmy K2 같은 오픈 웨이트 모델들이 도구 호출에서 뛰어난 성능을 보이고 있다는 것입니다. 이 모델들은 무료로 사용할 수 있을 뿐만 아니라 데이터 생성과 다른 모델 훈련에도 활용할 수 있어 Anthropic의 독점적 우위를 위협하고 있습니다.
3.5 Sonnet이 게임 체인저였지만, 이제 Open Router의 Horizon 모델들과 GPT 4.1 등 다양한 모델들이 도구 호출에서 뛰어난 성능을 보이며 Anthropic의 경쟁 우위가 빠르게 사라지고 있습니다.
UI 개발 분야에서도 Anthropic의 우위가 흔들리고 있습니다. Claude Opus로 생성한 결과물과 Horizon이 만든 결과물을 비교하면 현저한 차이를 보이며, 추론 기능이 없는 Horizon Beta조차 Anthropic의 가장 비싼 모델보다 나은 결과를 만들어내고 있습니다.
[00:08:43] 비합리적 가격 정책

월 최소 2만 달러 사용 약정을 요구하고, 5% 할인만 제공하는 요금 구조를 ‘터무니없다’고 비판합니다. 주요 벤치마크·리서치에 비추어 가격 대비 가치가 떨어진다고 풀이합니다.

Anthropic은 다른 회사들이 자신들의 모델을 이용해 개선하려 한다며 보수적인 접근을 취하고 있지만, 이는 연구 공유와 오픈소스가 활발한 현재 환경에서는 어리석은 전략으로 보입니다.
Anthropic은 CLI를 클로즈드 소스로 유지하는 유일한 회사입니다. Google의 Gemini CLI와 OpenAI의 Codeex는 모두 오픈소스로 공개되어 있으며, 심지어 다른 모델 지원 추가 기여도 받고 있습니다. OpenAI Codex 출시 당일에 클라우드 모델 지원 PR이 병합될 정도로 개방적인 접근을 보이고 있습니다.
Anthropic은 오픈 웨이트 모델을 릴리즈하지 않는 유일한 주요 회사이며, 가격 인하나 비용 절감 노력도 전혀 하지 않고 있습니다. 반면 Gemini는 캐시 레이어 개편을 통해 즉각적인 비용 절감 효과를 제공했습니다.
화자가 Anthropic의 비용 정책에 대해 비판하면서도, 그들의 시스템 카드와 같은 긍정적인 기여도 인정한다고 말합니다. 특히 SnitchBench 벤치마크를 만드는 데 영감을 준 Opus와 Sonnet V4의 상세한 시스템 카드를 언급합니다.
MCP와 같은 표준을 만드는 Anthropic의 노력을 인정하지만, 개인적으로는 복잡한 감정을 가지고 있다고 털어놓습니다. 이는 Anthropic이 자신의 가장 큰 청구서 중 하나이기 때문이라고 설명합니다.
Anthropic의 터무니없는 할인 정책을 비판합니다. 월 최소 2만 달러 지출을 약정하면 5% 할인을 제공하지만, 2만 달러에 도달하면 다시 정상가로 돌아간다는 불합리한 구조를 지적합니다.
[00:10:57] 긍정적 기여 인정

자세한 System Cards 공개와 MCP 표준 제안, Snitchbench 벤치마크 탄생 배경 등 Anthropic의 순기능도 언급합니다. 연구자와 개발자에게 유용한 자료를 제공한 부분을 평가합니다.

액세스 차단 문제, 특히 Windsurf 사건에 대해 자세히 설명합니다. Windsurf 인수가 실제로는 성사되지도 않았는데 Anthropic이 일찍부터 공격적으로 차단했다며, 이를 오만한 행동이라고 비판합니다.
Anthropic 모델이 GCP와 AWS를 통해서도 사용 가능하다는 점을 지적하며, 실제로는 공식 API보다 더 빠르고 신뢰할 수 있다고 설명합니다. 따라서 Anthropic의 차단은 실질적인 효과가 없는 쪼잔한 행동일 뿐이라고 결론짓습니다.
화자는 경쟁사들이 공개적으로 불만을 표출하는 것에 대해 비판하며, 이러한 행동이 치사하고 자기도취적인 행동이라고 강하게 비판합니다.
600억 달러 가치의 대기업이 접근을 제한하고 불안감 때문에 이런 행동을 한다는 것에 대해 믿을 수 없다며 분노를 표현합니다.
Anthropic과 OpenAI가 클라우드 접근이 차단되었다는 사실을 확인했으며, 이것이 OpenAI의 벤치마크 실행을 막으려는 시도라고 분석합니다.
이러한 행동이 순전히 치사하고 악의적이며 한심하다고 비판하면서, 이는 대기업이 할 행동이 아니라고 강조합니다.
Anthropic 대변인의 성명서를 인용하며, Claude Code 사용에 대한 서비스 약관 위반 문제를 설명합니다. OpenAI 직원들이 GPT5 출시 전에 Claude Code를 사용했다는 내용입니다.
자신들도 T3 Chat이라는 경쟁 제품을 만들고 있어서 Claude Code를 사용할 수 없다는 것을 깨달으며, Anthropic이 얼마나 불안해하는지 비판합니다.
T3 Chat을 홍보하면서 월 8달러로 모든 모델에 접근할 수 있다고 설명하며, 이는 월 20달러로 세 개 모델만 제공하는 경쟁사보다 훨씬 나은 조건이라고 주장합니다.
Claude.ai의 사용성 문제를 언급하며 자신들이 만든 대안 서비스를 소개하고, 월 8달러로 모든 클라우드 모델을 지원한다고 홍보합니다.
구글과 Anthropic 간의 관계가 악화될 것이라고 예측하며, 구글이 더 좋은 모델을 만들고 있어 향후 결별할 가능성이 높다고 분석합니다.
Anthropic이 앞으로 더욱 비굴하고 어리석은 행동을 할 것이라고 예측하며, 현재도 DMCA 신고 같은 명백히 잘못된 행동을 하고 있다고 비판합니다.
Dave Schumer가 Claude 코드 소스를 분석한 사례를 소개하며, Anthropic이 불안감 때문에 소스 코드 접근을 제한하려 했다고 설명합니다.
Dave가 Claude 코드와 기존 오픈소스 도구 ADER의 차이점을 알아보려 했으나, npm 패키지에서 복잡한 압축 파일만 발견했다고 설명합니다.
소스 맵이 활성화되어 있어서 원본 코드를 볼 수 있었지만, Dave가 쉬는 동안 Anthropic이 급하게 소스 맵을 제거하는 업데이트를 배포했다고 설명합니다.
이전 버전도 제거되었는데, npm에서 패키지 버전을 제거하는 것은 거의 불가능한 일로, Anthropic이 상당한 영향력을 동원했을 것이라고 추측합니다.
소스 맵을 실수로 배포한 무능함, 그것을 숨기려는 불안감, 그리고 npm에서 강제로 제거할 수 있는 권력을 가진 것의 조합이 정말 한심하다고 평가합니다.
다행히 Dave가 로컬에 파일을 보관하고 있어서 소스 맵을 통해 실제 소스 코드를 분석할 수 있었고, ink 라이브러리 사용을 확인했다고 설명합니다.
Anthropic의 Claude 툴에 대한 코드 분석 결과, 실제로는 비밀 소스나 특별한 기술이 없으며 단순한 ASCII 문자들과 애니메이션만 있다고 설명합니다.
해당 코드를 공개한 사람이 DMCA 신고를 당했고, GitHub의 DMCA 레포를 통해 Anthropic이 지속적으로 코드 재호스팅을 막고 있음을 보여줍니다.
다른 AI 모델들의 툴 호출 기능 혁신으로 Anthropic의 독점적 위치가 약화되고 있으며, 특히 OpenAI가 개발자들을 되찾기 위해 노력하고 있다고 분석합니다.
Anthropic의 경쟁 우위였던 개발자 친화성이 사라지고 있음에도 불구하고, 오픈소스화나 가격 인하 등의 대응책을 취하지 않고 있다고 비판합니다.
개인적 경험을 바탕으로 Anthropic이 가장 소통하기 어려운 회사라고 설명하며, OpenAI와 Google의 협조적인 태도와 대조적으로 Anthropic과의 레이트 제한 협상이 매우 어려웠다고 토로합니다.
[00:19:30] 마무리: 이상한 기분

Anthropic 모델과 연구 성과는 훌륭하지만, 비즈니스 운영 방식과 내부 문화가 ‘크리치’하다고 정리합니다. 더 투명하고 개발자 친화적인 태도로 전환하길 바란다고 촉구하며 영상을 마무리합니다.

타임라인 정보가 없습니다.

개발자들이 Anthropic을 좋아하는 이유가 있습니다.
그들은 우리가 코드를 훨씬 쉽게 작성할 수 있도록
도와주는 모델을 만들고,
Claude는 정말 뛰어납니다.
하지만 그럼에도 불구하고, 저는 그들이
오픈소스와 소프트웨어 개발 세계의
좋은 관리자라고 생각하지 않습니다.
마치 우연히 성공한 것처럼 보이면서도
본래 해서는 안 될 일들을
버젓이 하고 있는 것 같습니다.
Windinsurf부터 OpenAI에 이르기까지
모든 업체들의 접근을 차단하는 것부터,
GitHub에서 Claude 코드를 너무 깊이 분석하는
사람들에게 DMCA 요청을 보내는 것,
그리고 전반적으로 그들이 자신을 표현하고
이야기하는 방식에서 느껴지는
이상한 분위기까지 말입니다. 저는 Anthropic에 대해 복잡한 감정을 가지고 있습니다.
더 좋은 말을 할 수 있었으면 좋겠지만,
저는 과거에
그들을 많이 변호해야 하는
상황에 놓여있었습니다.
하지만 더 오래 전부터 저는
Anthropic을 별로 좋아하지 않는다고 말해왔습니다.
오늘은 드디어 여러분들에게
제가 Anthropic에 대해
좋아하지 않는 모든 것들을
설명하는 날입니다. 제가 경험에 바탕해서
말씀드리는 것이라는 점을 알아주세요.
지난달 그들에게 31,000달러를 지불한
사람으로서, 저는 Anthropic과
정말 많은 일을 겪었습니다.
월 8달러에 T3 reach out을 계속 제공하려면
수익을 내야 합니다. 그러니
오늘의 스폰서 소개를 잠깐 하고
바로 본론으로 들어가겠습니다. 코딩이
이렇게 재미있었던 적은 없었습니다. 제가 좋아하는 부분은 제가 하고,
싫어하는 부분은 AI가 할 수 있죠. 그리고
훨씬 더 많은 코드를 작성할 수 있기 때문에
시스템에 대해 훨씬 더 깊이 생각할 수 있습니다.
하지만 코드 리뷰가 문제인 것 같습니다.
더 많은 코드를 배포하게 되면서
더 많은 코드를 리뷰해야 하기 때문입니다.
모든 문법적인 부분을 확인하고,
이상한 버그를 만들 수 있는
일들을 하지 않는지 확인하는
지루한 과정이 너무 피곤합니다.
그냥 PR이 실제로 무엇인지 알고 싶습니다.
오늘의 스폰서인 Code Rabbit은
우리 코드 리뷰에 AI를 도입하려고 합니다.
그리고 이것은 우리의 코드 리뷰 방식을
근본적으로 바꿔놓았습니다. 처음에는 정말
회의적이었습니다. Code Rabbit 같은 것이
제게 맞을 거라고 전혀 생각하지 않았는데,
시도해봐서 정말 감사합니다.
코드 리뷰 방식을 바꿔놓았거든요.
PR을 요약해주고,
실제로 무슨 일이 일어나는지,
언제 어디서 왜 일어나는지에 대한 다이어그램을 남겨줍니다.
각 파일의 변경 사항 요약과
영향받은 부분들을 보여줍니다. 하지만
가장 중요한 것은, PR에 실제 댓글과
피드백을 남겨서 우리가
프로덕션에 배포했을 수십 개의
버그를 잡아냈다는 점입니다.
100% 확신을 가지고 말할 수 있는데,
제가 직접 작성한 최소 40개의 버그가
T3 채팅에 들어가지 않았습니다.
Code Rabbit이 잡아냈거든요.
다른 팀원들이 잡았을까요? 아마도요.
일부는 잡았을 가능성이 높고,
다른 것들은 그보다 낮겠죠.
팀이 놓쳤지만 Code Rabbit이
잡아낸 것들도 분명히 있었습니다. 하지만 더 중요한 것은
팀이 더 이상 그럴 필요가 없다는 점입니다.
코드 리뷰에서 그들의 역할은 더 이상 한 줄씩 살펴보며 제가 문법을 제대로 했는지 확인하는 게 아닙니다.
Code Rabbit이 그런 모든 걸 다 해주니까 우리 팀은 핵심에만 집중할 수 있어요.
가장 멋진 건 당신과 팀이 어떻게 일하는지 학습한다는 거예요.
뭔가 잘못되거나 다르게 한다면,
Code Rabbit에게 '아니야, 우리는 그렇게 안 해'라고 말할 수 있죠.
규칙이나 다른 것들도 추가할 수 있어요.
코드베이스에서 원하는 특정 동작을 강제할 수 있습니다
Code Rabbit에 규칙을 넣으면
이제 리뷰에서 그걸 지적해줄 거예요.
예를 들어 여기서는
process.env를 사용하지 않아요.
우리는 T3 env 패키지를 써서
타입 안전한 환경 변수 접근을 해요.
그리고 누군가 process.env를 사용하는 변경을 했다면,
그걸 지적하면서
'아니야, 대신 이걸 사용해'라고 알려줘요.
이런 류의 리뷰 코멘트는 내가 남기기 미안한 거거든요
PR을 막고 싶지 않아서요.
Code Rabbit이 대신 해줄 거예요.
그리고 리뷰를 너무 빨리 하기 때문에
팀의 다른 누구라도 작업을 시작하기 전에
이런 코멘트를 받을 가능성이 높아요.
더 이상 형편없는 코드로
팀에게 불편을 끼치지 않아도 돼요.
Code Rabbit에게 불편을 끼치는 거죠.
AI인데 누가 신경 써요?
형편없는 코드 리뷰로 팀을 괴롭히는 걸 멈추고
정말 중요한 세부사항에 집중하고 싶다면
오늘 soyv.link/codrabbit에서 확인해보세요.
제가 다루고 싶은 핵심 요소들이 있어요.
이상한 방식으로 접근을 차단하는 것,
나쁜 오픈소스 행태,
선량한 척하는 태도,
그리고 솔직히 말해서 터무니없는 가격 정책이에요.
가격을 진짜로 내린 적이 없는
유일한 회사 같아요
오히려 천천히 올리기만 하는 것 같고요.
하지만 경쟁사들의 접근을 차단하는 것부터 시작해볼게요
이게 최근의 드라마거든요.
OpenAI 직원의 재미있는 인용문부터 시작할게요.
이건 밈 인용문이지만 요점은 알 수 있어요.
'AI의 성과를 민주화하고
특이점이 도움되고, 해롭지 않고, 정직하도록 하는
우리 노력의 일환으로,
특이점을 연구하는 다른 사람들이
우리의 도움되고, 해롭지 않고, 정직한 모델과
채팅할 수 있는 능력을 거부하기로 결정했습니다.'
이거 재미있을 거예요.
역사적으로 Anthropic은
정말 긍정적이고, 좋고, 친절하고,
인류의 최선을 위해 일하는 회사로
자신들을 포지셔닝하려고 했어요.
누군가 그런 식으로 하면
저는 항상 약간 의심스러워해요.
그리고 그들의 경우에는
모순이 꽤 터무니없다고 생각해요.
최근에 유출된 CEO의 메모가 있어요
그런데 그 사람은 OpenAI에서 일했던 사람인데
이렇게 말했어요. '안타깝게도,
나쁜 사람은 절대 우리의 성공으로부터
이익을 얻어서는 안 된다는 것은
사업을 운영하기에는 꽤 어려운 원칙이라고 생각한다
걸프 국가 투자 추진 가능성에 대한
직원들에게 보낸 메모에서 다리오가 썼다.'
네, 이게 지금 Anthropic이
작동하는 방식인 것 같아요.
한편으로는 멋지고, 좋고, 사려 깊은
모델을 구축하는 회사가 되려고 하지만
실제로는 그냥 또 다른 비즈니스일 뿐이고
네,
이게 지금 Anthropic이 느껴지는 방식이에요.
한편으로는
멋지고, 좋고, 사려 깊은 회사가 되려고 하지만
실제로는 그냥 또 다른 비즈니스이고
현재 주요 AI 랩들 중에서
그들이 가장 적게 기여하고 있어요
물론 MCP라는 멋진 표준이 있긴 하지만
멋진 표준이긴 해요
동시에 그들은 Claude Code를 가지고 있는데
이게 현대적인 CLI 코딩 도구들 중에서
유일하게 오픈소스가 아닌 것이에요
다른 것들은 모두 오픈소스인데
Claude Code는 오픈소스가 아닐 뿐만 아니라
앞서 언급했듯이, 사람들이 리버스 엔지니어링을 시도하고
발견한 내용을 공유하려고 하면
DMCA 테이크다운을 보내고 있어요
그리고 정말 민망한 영상이 있는데
Claude Code를 만든 사람이 한 말들이
제게는 좀 그렇더라고요
2월에 Claude Code를 출시했습니다
3개월이 조금 넘었는데
어땠나요? 커뮤니티 반응은 어땠나요?
정말 대단했어요
완전히 예상밖이었죠
출시하기 전에는
출시할지 확신이 없었거든요
출시할지 말지 고민이 있었어요
내부적으로 이 도구가
우리 엔지니어들과
연구진들을 매우 생산적으로 만들어서
이런 논쟁이 있었어요
이게 우리의 비밀 소스인가?
사람들에게 공개해도 되나?
Anthropic의 모든 사람들이 매일 사용하는
같은 도구인데
네, 그들은 Claude Code 출시를 고민했어요
비밀 소스라고 생각해서
자신들을 그렇게 생산적으로 만드는
기술을 공개하고 싶지 않았던 거죠
정말 역겨워요
직설적으로 무례하게 말하고 싶지 않지만
이런 식으로 생각하기 시작하는 데 필요한
오만함이 저에게는 터무니없어 보여요
Anthropic은 자신들의 경쟁력이 얼마나 약한지
알고 있는 것 같아요
과감한 말을 하자면
Anthropic이 지금 관련성을 유지하는 유일한 이유는
툴 콜링에서의 초기 리드 때문이에요
다른 모든 회사들보다 먼저
이 기술을 제대로 구현했거든요
AI를 중심으로 자신만의 도구나
제품을 만들고 싶다면
자신만의 에이전트를 구축한다면
터미널에서 실행되는 것을 만든다면
커서나 윈드서프 같은
AI 에디터를 만든다면
다른 무엇을 만든다면
Anthropic의 모델들이 훨씬 뛰어났어요
어떤 작업을 설명하는 형식을 받아들이는 데
예를 들어 날씨를 조회하고 싶다면
도구 이름은 날씨, 값은 우편번호라고 알려주면
이렇게 하면 날씨 정보를 얻을 수 있다고
알려주면
날씨 정보를 가져와서
실제로 수행해요
그들의 모델이 이 기능을 먼저 가지고 있어서
큰 이점을 얻었어요
최근까지
툴을 안정적으로 호출할 수 있는
다른 옵션이 많지 않았거든요
Gemini 2.5 Pro조차 툴로 무엇을 할 것인지
말하고는 실제로 하지 않는 경우가 많아요
업데이트할 때마다 무작위로
성능이 떨어지는 것을 계속 발견해왔어요
실제 에이전트 작업에 사용하려고 하면
더욱 나빠지죠
여전히 Anthropic 모델들이
이 분야에서는 단연 최고라고 생각해요
그렇긴 하지만 이제 경쟁에 직면하고 있어요
Anthropic이 직면한 가장 큰 위험이에요.
이 모델들은 도구 호출을 정말 잘하죠.
그리고 오픈 웨이트라는 점이 중요해요.
우리가 원하는 대로 무료로 사용할 수 있을 뿐만 아니라
이 모델들을 사용해서 데이터를 생성하고
다른 모델들을 훈련시켜 도구 호출을 잘하도록 만들 수도 있어요.
이 두 오픈 웨이트 모델은
누구나 다운로드해서 사용할 수 있는 모델들이에요.
그리고 1년 전만 해도 Anthropic만이 할 수 있었던
그 특별한 일을 해내죠.
3.5 Sonnet은 게임 체인저였어요.
Anthropic 버블 밖에서 따라잡는데 거의 1년이 걸렸죠.
하지만 이제 따라잡혔어요.
이제 이런 일을 할 수 있는 모델들이 많이 있어요.
현재 Open Router에서 사용 가능한 Horizon 모델들은
아마도 큰 랩에서 만든 것 같은데
도구 처리를 정말 잘해요.
GPT 4.1 같은 최신 OpenAI 모델들도
도구 호출을 정말 잘하죠.
이런 오픈 웨이트 모델들도
도구 호출을 정말 잘해요. 경쟁 우위를 잃고 있어요.
잠시 동안은 UI 분야에서도 더 나았죠.
한동안 Anthropic 모델들이
Tailwind에서 가장 뛰어났어요.
Claude Opus로 이미지 스튜디오를 생성했는데
Horizon 모델 영상용이었어요.
이렇게 만들어졌죠.
괜찮은 작업을 했어요.
하지만 Horizon이 생성한 것과 비교하면
밤과 낮만큼 차이가 나요.
UI에서도 경쟁 우위를 잃어가고 있어요.
참고로 이건 추론 모델도 아니에요.
Horizon Beta는 추론 기능이 없는데도
현재 Anthropic이 제공하는
가장 비싼 모델보다
훨씬 나은 결과물을 만들어냈어요.
경쟁 우위가 빠르게 사라지고 있고
지금까지 비즈니스를 운영해온 방식은
그 우위를 매우 보수적으로 지키는 것이었어요.
그들은 Windsurf나 OpenAI 같은 회사들이
자신들의 모델을 사용해서
그들의 모델을 개선하려 한다고 주장하죠.
그 비밀 소스를 훔치려 한다는 거예요.
이전 영상에서 들었던 바로 그 이야기죠.
아니에요, 그건 어리석은 생각이에요.
사람들이 계속해서 연구를 발표하고
학습 내용을 공유하고
오픈 웨이트를 공개하는 세상에서
Anthropic만이 이 모든 걸 잘못하고 있다는 게
정말 미친 일이죠.
CLI를 클로즈드 소스로 릴리즈한 유일한 회사가
바로 Anthropic이에요.
Gemini CLI를 가진 Google과
Codeex를 가진 OpenAI 모두
CLI를 완전히 오픈소스로 공개했고
다른 모델 지원을 추가하는 기여도 받고 있어요.
OpenAI의 Codex가 출시된 날
클라우드 모델을 추가하는 PR이 올라왔고
같은 날 병합되었어요.
또한 오픈 웨이트 모델을 릴리즈하지 않는
유일한 회사이기도 하죠.
OpenAI도 안 했다는 건 알지만
곧 나올 것 같은 느낌이 있어요.
이 영상이 올라갈 때쯤엔
이미 나와 있을지도 모르죠.
그들은 정말 열심히 노력하고 있어요.
Anthropic은 그런 일에
전혀 관심이 없어 보여요.
또한 가격을 내리거나
더 저렴하게 만들려는 노력을
전혀 하지 않는 유일한 랩이에요.
Gemini조차 캐시 레이어를 대대적으로 개편했는데
이는 즉각적인 비용 절감 효과를 가져왔어요.
비용을 절감해주지 않습니다.
그들이 하는 좋은 일들도 있어요.
그냥 여기 앉아서
그들을 비난만 하고 싶지는 않습니다. 그들의 시스템 카드는
Anthropic이 인정받을 만합니다
SnitchBench로요. 제가 그
벤치마크를 만들지 않았을 텐데, 그들이
Opus와 함께 발표한 상세한 시스템 카드가 없었다면요
V4와 함께 발표한 Sonnet 말이죠. 그 시스템 카드들이
정말 좋은 아이디어를 주었고, 또한
트위터의 수많은 광신도들에 의해
심각하게 잘못 해석되어서, 제가
벤치마크를 만들어서 그들이 틀렸음을 증명해야 했어요
지금 관련성이 있고 아마도
연구가 발표될 수 있는 벤치마크로요. 놀랍죠.
그들은 또한 일종의 표준을 만들어요. MCP처럼,
제가 싫어하긴 하지만, 괜찮아요. 그리고
그들이 그렇게 할 수 있는 방법이 정말로
표준으로 릴리즈하는 것 외에는 없었어요.
하지만 네, 다른 좋은 점들을 생각해보려고 하는데
솔직히 좀 힘드네요.
저는 그냥 복잡한 감정을 가지고 있어요.
제 편견을 고려해야 하고, Anthropic이
제가 언제든지 마주치는
가장 큰 청구서 중 하나라는 사실 말이에요.
이 사람들이 가져가는 제 돈의 양이
터무니없어요.
그리고 그들이 우리에게 제안한 할인은
월 최소 2만 달러 지출을 약정하면 5%였어요.
그래서 제가 6만 달러를 보내면
최소 3개월 약정이라서
제가 6만 달러를 건네면
그들은 친절하게도 5% 할인을 해주겠다는 거예요
2만 달러 지출에 도달할 때까지만 하고
그 다음엔 다시 정상가로
돌아가는 거죠. 뭐라고요? 미친 거예요.
완전히 터무니없어요.
하지만 액세스 차단 문제를
더 자세히 살펴보고 싶어요
이게 특히 엿같다고 생각하거든요.
Windsurf 사건은 더욱 웃겼는데
Windsurf 인수가 실제로는 성사되지도 않았거든요.
Anthropic은 그냥 일찍부터 공격적이었어요
그들이 좀 오만한 놈들이거든요.
그들이 이럴 이유가 없었어요.
그들의 최고 과학 책임자 Jared Kaplan이
인터뷰에서 이에 대해 질문받았을 때
무대에서 "우리가 Claude를
OpenAI에 판매하는 것은 이상할 것 같다"고 말했어요.
Windsurf는 Anthropic에서 완전히 차단당했지만
그것이 어떻게 작동하는지에 대해
정말 웃긴 점이 있어요. Anthropic
모델은 GCP와 AWS에서 사용할 수 있어요.
Open Router로 가서, Claude로 가서
Sonnet 4로 가보면, 여러분은 Google Vertex와 Bedrock을
그들의 모델에 사용할 수 있을 뿐만 아니라
실제로 더 빠르고
종종 더 신뢰할 수 있다는 걸 보게 될 거예요.
공식 API를 통해서만
Claude 모델을 사용하기 어려운 지경이에요
Open Router가 훨씬 더
신뢰할 수 있게 만들어주거든요. Anthropic이
다운될 때, 저를 믿으세요, 그들은
다운될 거예요. 그들은 많이 다운될 거예요.
Amazon Bedrock이나
다양한 Vertex 배포로
대신 폴백할 수 있어요. 그래서 Anthropic이 누군가를
차단할 때, 그들은 모델에 대한 액세스를 차단하는 것도 아니에요.
그들은 Anthropic 인프라 같은 것에 대한 액세스를
직접적으로 제한하도록 강요하는 거예요.
그래서 여전히 Windsurf 에디터에서 Claude를 사용할 수 있어요.
그들은 그냥 쪼잔하게 굴고 있는 거예요.
그들이 이렇게 하는 유일한 이유는
화가 나서 그런 거예요. 그리고 그들이
공개적으로 불만을 토로하고 싶어하는 거죠. 그리고
그들이 그렇게 하는 이유는 사람들이
자신들을 어떻게 느끼는지 보여주고 싶어하기 때문인데,
지금 우리가 하고 있는 게 바로 그거죠. 그리고
우리는 그들을 조롱할 겁니다
왜냐하면 이건 치사하고, 자기도취적이고,
완전히 형편없는 행동이기 때문이에요. 그리고 진짜
수십억 달러 규모의 회사가
이런 짓을 한다는 게 믿어지지 않아요. 이놈들은 600억
달러의 가치를 가진 회사인데 멋대로
접근을 제한하고 무대에서 헛소리를
지껄이고 있어요
얼마나 불안한지 보여주는 거죠. 정말 미친 일이에요. 난
이런 일이 계속 일어나고 있다는 게 믿어지지 않아요.
그리고 우리가 오늘 이걸 촬영하는 이유는
Anthropic과
OpenAI가 클라우드 접근이
차단되었다는 사실을 방금 확인했기 때문이에요.
OpenAI가 왜 접근이 필요할까요?
벤치마크를 실행해야 하거든요.
바로 이게 OpenAI가 벤치마크를
실행하지 못하게 하려는 시도예요
Anthropic 모델과 자신들의
모델을 비교하지 못하게 말이죠. 하지만 앞서 말했듯이, 그들은
다른 공급업체를 통해서도 사용할 수 있어요.
그러니까 이건 순전히 치사한 행동이에요. 이건
순전히 악의적이고, 순전히 한심하며
그들이 이런 헛소리로
비판받아 마땅해요. 이건
불안한 제품 관리자가 회사에서 하는 짓이에요.
수십억 달러 규모의 대기업이 할 일이 아니죠.
최소한 조롱받지 않고는 하지 않죠.
그런데 지금 우리가
여기서 하고 있는 게 바로 그거예요. 왜냐하면 이건
정말 한심하거든요.
이것에 대해 더 알아볼수록
더 바보 같은 일이 되어가요.
여기 Anthropic 대변인의
성명서가 있어요. Claude Code는
전 세계 코더들의 첫 번째 선택이
되었습니다. 그래서
OpenAI의 기술 직원들도
GPT5 출시를 앞두고 저희 코딩 툴을 사용하고 있다는 것을
알게 된 것은 놀랄 일이 아니었습니다. 하지만 안타깝게도 이는
저희 서비스 약관의 직접적인
위반입니다. 고객들은 경쟁 제품이나
서비스를 구축하기 위해 서비스를 사용하는 것이
금지되어 있으며, 여기에는 경쟁하는
AI 모델 훈련도 포함됩니다.
또한 서비스를 리버스 엔지니어링하거나
복제하는 것도 허용되지 않습니다.
이건 한심해요. 이 말은
방금 깨달았는데 이 말은 우리가
클라우드 코드를 사용할 수 없다는 뜻이에요. 내가
클라우드 코드를 사용하는 것이
서비스 약관 위반이래요. 왜냐하면 우리는
Anthropic과 경쟁하는 채팅 앱인
T3 Chat을 만들고 있거든요.
그들이 우리 웹사이트의
모델 접근도 차단할 건가요?
그들이 그렇게 불안해서 내가
Anthropic 모델 제공을 중단해야 할까요?
정말 그 지경까지 온 건가요?
그들이 정말 그렇게 한심한 건가요?
구글도 차단할 건가요?
구글이 더 좋은 모델을 가지고 있다고 해서 말이에요? 난
곰을 좀 찌르지 않을 수가 없네요.
아직 T3 Chat을 사용해보지 않으셨다면, 우리는 이 앱에
온 마음과 영혼을 쏟고 있어요.
정말, 정말 좋습니다.
월 8달러로 모든 모델에 접근할 수 있어요.
반면 그들은 월 20달러로 세 개의 모델만
제공하죠. 둘 다 제한이 있지만,
그들의 제한은 훨씬 덜 투명하고, 그들의 앱도
정말 형편없어요. Claude.ai가 얼마나
비참한지 설명하는 긴 영상도 있어요.
우리는 사용하기 편하도록
세부사항을 정말 신경써서 만들었어요.
모든 클라우드 모델과 다른
우수한 모델들을 모두 지원하며
월 8달러면 됩니다.
아직 구독하지 않으셨다면
첫 달은 1달러에 드려요.
할인을 받으려면 체크아웃에서
코드 'weird vibes'를 사용하세요.
그런데 구글이 더 이상
클라우드에서 Anthropic 모델을 제공할 수
없게 될까요? 그럴 가능성이 높다고 생각해요.
정말로 곧 구글과 Anthropic이
크게 결별하는 순간이 올 것 같아요.
왜냐하면 구글이 이제 Anthropic보다
더 좋은 모델을 만들고 있거든요.
정말 복잡해질 거예요.
내가 먼저 이런 예측을 했다는 걸
기록해 두세요. Anthropic은 앞으로
훨씬 더 비굴하고 복잡해지면서
명백히 어리석은 행동들을
시작할 거예요. 지금 하고 있는 일들도
제 생각에는 명백히 어리석거든요.
누군가가 당신의 작업을 좋아한다고
DMCA 신고를 하는 것처럼요.
이건 정말 미친 일이에요. Dave Schumer가
Claude 코드 소스를 파헤쳤는데
정말 재미있는 시간을 보냈어요.
다시 말하지만, Anthropic은 정말 불안해해요.
그래서 Claude 코드 소스에 대한
접근을 제한하려고 했어요.
이미 출시 당시에도 기존의
오픈소스들이 있었는데도 말이에요.
ADER 같은 것들이 있었어요. 이건
Python으로 만든 정말 좋은 오픈소스
CLI 에이전트 코딩 도구거든요.
Dave는 Claude 코드의 구현이
ADER와 어떻게 다른지 궁금했어요.
그래서 살펴보러 갔는데 npm 패키지에서
가져온 거대하고 복잡한 압축 파일을 봤어요.
여기서 Sentry 관련 내용을 볼 수 있어요.
CLI 안에서 Sentry를 사용하고 있네요. 흥미롭죠.
하지만 소스 맵이 활성화되어 있어서
스크롤하면 소스 맵을
찾을 수 있었어요. 그런데 Dave가 잠깐
쉬는 동안 업데이트가 배포됐나 봐요.
그 업데이트에서 소스 맵
URL 문자열이 사라졌어요.
Anthropic 사람들이 큰 실수를
깨닫고 소스 맵을 제거하는
업데이트를 배포했어요.
괜찮아요, 이전 버전을 가져오면 되니까.
어? 그것도 제거했네요.
npm에서 패키지의 이전 버전을
제거하는 게 얼마나 어려운지 아세요?
거의 불가능해요. 누군가가 많은 줄을 당겨서
패키지의 다른 버전을
npm에서 제거했을 거예요.
그런 일은 거의 일어나지 않아요.
정말 재미있는 조합이에요.
소스 맵 URL을 배포하는 무능함,
그것을 처음부터 숨기려고 할 정도의 불안감,
그리고 그것을 npm에서
실제로 제거할 수 있는 인맥과
일종의 괴롭힘 행동들이
합쳐진 거죠. 정말 한심해요.
다행히도 Dave가 자신의 컴퓨터에
아직 가지고 있어서 소스 맵
URL을 통해 실제로 분석하고
모든 소스 코드를 찾아서
ink를 사용하고 있다는 걸 확인했어요. 애니메이션은 단순히
그냥 ASCII 문자들일 뿐입니다. 시스템 프롬프트에
유출될 비밀 소스는 없어요.
기억하세요, 그들이 걱정했던
비밀 소스 말이에요. 그런 건 전혀 없습니다.
파일들은 아마 꽤 빨리 구식이 될 거예요.
Anthropic 팀이 활발하게
툴을 개발하고 있거든요.
그들은 이미 2.19버전까지 나왔어요.
이건 2.8버전에서 나온 거였거든요.
그래서 그 코드를 게시한 대가는 DMCA 신고였습니다.
다행히도 GitHub은 Anthropic과는 달리
비교적 투명한 회사입니다.
그래서 그들이 받는 모든 DMCA 요청들이
DMCA 레포에 공개됩니다. 그래서 우리는
Anthropic이 이런 짓을 했다는 걸 볼 수 있어요.
그리고 이런 일이 처음이 아니라는 것도
알 수 있습니다. 그들은 정말 DMCA 신고를 좋아해요.
클라우드 코드를 재호스팅하려는 사람들에게 말이죠.
자기들 실수 때문에 삭제한
모든 레포들을 보세요. 냉혹한 현실은
최근 다른 모델들의 툴 호출 혁신이
없었다면, 우리는 어느 정도
이걸로 만족해야 했을 거라는 겁니다.
다행히도 다른 모델들에서
많은 혁신이 있었고, Anthropic을
따라잡고 넘어서고 있습니다.
이것이 올해 OpenAI의 집중 포인트였던 것 같아요.
4.1 드롭 영상과 04 미니 드롭 영상에서
여러 번 얘기했듯이,
OpenAI는 정말로 개발자들을 되찾고 싶어하는 것 같아요.
왜냐하면 벤치마크에서 모델이 얼마나 똑똑한지는
중요하지 않다는 걸 알았거든요.
개발자들이 그걸 사용하지 않고
그걸 중심으로 뭔가를 만들지 않으면,
장기적으로 질 가능성이 높아요.
그리고 Anthropic의 강점은 개발자들이
그들을 좋아하고 그들을 중심으로
뭔가를 만든다는 거였어요. 그 강점이 빠르게
사라지고 있습니다.
만약 그들이 합리적인 회사였다면,
그것을 인식하고 방향을 수정했을 거예요.
Claude 코드를 오픈소스로 만들었을 거고,
모든 모델을 오픈웨이트로 출시하고,
가격을 좀 낮추고,
PR 수리 작업을 벌여서
이 모든 문제들을 고치려고 했을 거예요.
Anthropic이 제게 연락하고
정보를 얻기가 가장 어려운 회사라는 사실,
저는 Gemini에서 DM이나 문자 메시지로
레이트 제한을 늘릴 수 있어요.
OpenAI에서는 이미 승인받아서
그런 문제가 없어요. 사실 OpenAI는
미리 알려주기까지 해요.
그들은 정말 훌륭해요.
OpenAI는 인플루언서로서,
그리고 그들 위에 뭔가를 만드는 빌더로서
함께 일하기 정말 좋았어요.
Anthropic은... 저는 정말
많은 애를 써서 Anthropic의
인프라에서 레이트 제한을 약간 늘렸어요.
첫날 T3 채팅에서
Claude 4를 작동시키기 위해서는
정말 끔찍했어요.
우리의 최악의 적이나 경쟁자에게도
그런 일은 겪게 하고 싶지 않아요.
제가 할 수 있는 최선의 표현은
제목에 적은 그대로예요.
그들에게서 정말 이상한 느낌을 받거든요.
Anthropic과 함께 일하고,
Anthropic 위에 뭔가를 만들고,
Anthropic을 다루고, 그들의 관행을 살펴보고,
이 모든 것들을 발견하는 경험에서요.
Anthropic에 대해 더 깊이 알아볼 때마다
그냥 이상한 느낌이 들어요. 그리고 이게 안타까운 이유는
제가 아는 정말 똑똑한 친구들이 거기서 일하고
훌륭한 일을 하고 있기 때문이에요.
그들의 연구 중 일부는 정말
놀라워요. 시스템 카드의 세부 사항은
정말 유용해요. 그들의 모델들은
멋진 일들을 가능하게 하고 있어요.
하지만 그들이 회사를 운영하는 방식은
기껏해야 어색하고, 문제가 있거나
최악의 경우 해로워요. 그리고 우리는
이에 대해 더 얘기해야 해요.
Anthropic의 모델이 Tailwind 작성에
똑똑하다는 이유로 모든 걸
용서할 수 있는 척하는 것에 지쳤어요.
현실적으로 그들은 개발자로서
함께 일하기에 현대 모델 시장에서
가장 최악의 회사예요.
제가 이 영상을 올린 후에
그들이 제 액세스를 차단하는 데
얼마나 걸릴지 지켜봅시다.
안 그러길 바라지만, 적어도
그렇게 된다면 좋은 콘텐츠는
나올 거예요. 더 할 말은 없네요.
들어주셔서 감사합니다. 안녕히.