[00:00]
개발자들이 Anthropic을 좋아하는 이유가 있습니다.
[00:01]
그들은 우리가 코드를 훨씬 쉽게 작성할 수 있도록
[00:03]
도와주는 모델을 만들고,
[00:05]
Claude는 정말 뛰어납니다.
[00:07]
하지만 그럼에도 불구하고, 저는 그들이
[00:09]
오픈소스와 소프트웨어 개발 세계의
[00:11]
좋은 관리자라고 생각하지 않습니다.
[00:12]
마치 우연히 성공한 것처럼 보이면서도
[00:14]
본래 해서는 안 될 일들을
[00:15]
버젓이 하고 있는 것 같습니다.
[00:17]
Windinsurf부터 OpenAI에 이르기까지
[00:19]
모든 업체들의 접근을 차단하는 것부터,
[00:22]
GitHub에서 Claude 코드를 너무 깊이 분석하는
[00:24]
사람들에게 DMCA 요청을 보내는 것,
[00:27]
그리고 전반적으로 그들이 자신을 표현하고
[00:29]
이야기하는 방식에서 느껴지는
[00:30]
이상한 분위기까지 말입니다. 저는 Anthropic에 대해 복잡한 감정을 가지고 있습니다.
[00:34]
더 좋은 말을 할 수 있었으면 좋겠지만,
[00:37]
저는 과거에
[00:38]
그들을 많이 변호해야 하는
[00:39]
상황에 놓여있었습니다.
[00:41]
하지만 더 오래 전부터 저는
[00:43]
Anthropic을 별로 좋아하지 않는다고 말해왔습니다.
[00:45]
오늘은 드디어 여러분들에게
[00:47]
제가 Anthropic에 대해
[00:49]
좋아하지 않는 모든 것들을
[00:51]
설명하는 날입니다. 제가 경험에 바탕해서
[00:53]
말씀드리는 것이라는 점을 알아주세요.
[00:56]
지난달 그들에게 31,000달러를 지불한
[00:59]
사람으로서, 저는 Anthropic과
[01:00]
정말 많은 일을 겪었습니다.
[01:02]
월 8달러에 T3 reach out을 계속 제공하려면
[01:03]
수익을 내야 합니다. 그러니
[01:05]
오늘의 스폰서 소개를 잠깐 하고
[01:07]
바로 본론으로 들어가겠습니다. 코딩이
[01:08]
이렇게 재미있었던 적은 없었습니다. 제가 좋아하는 부분은 제가 하고,
[01:10]
싫어하는 부분은 AI가 할 수 있죠. 그리고
[01:12]
훨씬 더 많은 코드를 작성할 수 있기 때문에
[01:14]
시스템에 대해 훨씬 더 깊이 생각할 수 있습니다.
[01:16]
하지만 코드 리뷰가 문제인 것 같습니다.
[01:18]
더 많은 코드를 배포하게 되면서
[01:20]
더 많은 코드를 리뷰해야 하기 때문입니다.
[01:22]
모든 문법적인 부분을 확인하고,
[01:25]
이상한 버그를 만들 수 있는
[01:26]
일들을 하지 않는지 확인하는
[01:28]
지루한 과정이 너무 피곤합니다.
[01:30]
그냥 PR이 실제로 무엇인지 알고 싶습니다.
[01:32]
오늘의 스폰서인 Code Rabbit은
[01:34]
우리 코드 리뷰에 AI를 도입하려고 합니다.
[01:36]
그리고 이것은 우리의 코드 리뷰 방식을
[01:38]
근본적으로 바꿔놓았습니다. 처음에는 정말
[01:40]
회의적이었습니다. Code Rabbit 같은 것이
[01:41]
제게 맞을 거라고 전혀 생각하지 않았는데,
[01:43]
시도해봐서 정말 감사합니다.
[01:45]
코드 리뷰 방식을 바꿔놓았거든요.
[01:47]
PR을 요약해주고,
[01:48]
실제로 무슨 일이 일어나는지,
[01:50]
언제 어디서 왜 일어나는지에 대한 다이어그램을 남겨줍니다.
[01:53]
각 파일의 변경 사항 요약과
[01:55]
영향받은 부분들을 보여줍니다. 하지만
[01:57]
가장 중요한 것은, PR에 실제 댓글과
[02:00]
피드백을 남겨서 우리가
[02:02]
프로덕션에 배포했을 수십 개의
[02:03]
버그를 잡아냈다는 점입니다.
[02:05]
100% 확신을 가지고 말할 수 있는데,
[02:08]
제가 직접 작성한 최소 40개의 버그가
[02:10]
T3 채팅에 들어가지 않았습니다.
[02:11]
Code Rabbit이 잡아냈거든요.
[02:13]
다른 팀원들이 잡았을까요? 아마도요.
[02:14]
일부는 잡았을 가능성이 높고,
[02:16]
다른 것들은 그보다 낮겠죠.
[02:17]
팀이 놓쳤지만 Code Rabbit이
[02:19]
잡아낸 것들도 분명히 있었습니다. 하지만 더 중요한 것은
[02:21]
팀이 더 이상 그럴 필요가 없다는 점입니다.
[02:23]
코드 리뷰에서 그들의 역할은 더 이상 한 줄씩 살펴보며 제가 문법을 제대로 했는지 확인하는 게 아닙니다.
[02:25]
Code Rabbit이 그런 모든 걸 다 해주니까 우리 팀은 핵심에만 집중할 수 있어요.
[02:26]
가장 멋진 건 당신과 팀이 어떻게 일하는지 학습한다는 거예요.
[02:28]
뭔가 잘못되거나 다르게 한다면,
[02:29]
Code Rabbit에게 '아니야, 우리는 그렇게 안 해'라고 말할 수 있죠.
[02:31]
규칙이나 다른 것들도 추가할 수 있어요.
[02:33]
코드베이스에서 원하는 특정 동작을 강제할 수 있습니다
[02:35]
Code Rabbit에 규칙을 넣으면
[02:37]
이제 리뷰에서 그걸 지적해줄 거예요.
[02:39]
예를 들어 여기서는
[02:40]
process.env를 사용하지 않아요.
[02:42]
우리는 T3 env 패키지를 써서
[02:44]
타입 안전한 환경 변수 접근을 해요.
[02:45]
그리고 누군가 process.env를 사용하는 변경을 했다면,
[02:49]
그걸 지적하면서
[02:50]
'아니야, 대신 이걸 사용해'라고 알려줘요.
[02:52]
이런 류의 리뷰 코멘트는 내가 남기기 미안한 거거든요
[02:55]
PR을 막고 싶지 않아서요.
[02:56]
Code Rabbit이 대신 해줄 거예요.
[02:58]
그리고 리뷰를 너무 빨리 하기 때문에
[03:00]
팀의 다른 누구라도 작업을 시작하기 전에
[03:02]
이런 코멘트를 받을 가능성이 높아요.
[03:04]
더 이상 형편없는 코드로
[03:05]
팀에게 불편을 끼치지 않아도 돼요.
[03:07]
Code Rabbit에게 불편을 끼치는 거죠.
[03:08]
AI인데 누가 신경 써요?
[03:10]
형편없는 코드 리뷰로 팀을 괴롭히는 걸 멈추고
[03:12]
정말 중요한 세부사항에 집중하고 싶다면
[03:13]
오늘 soyv.link/codrabbit에서 확인해보세요.
[03:15]
제가 다루고 싶은 핵심 요소들이 있어요.
[03:17]
이상한 방식으로 접근을 차단하는 것,
[03:18]
나쁜 오픈소스 행태,
[03:20]
선량한 척하는 태도,
[03:21]
그리고 솔직히 말해서 터무니없는 가격 정책이에요.
[03:22]
가격을 진짜로 내린 적이 없는
[03:24]
유일한 회사 같아요
[03:26]
오히려 천천히 올리기만 하는 것 같고요.
[03:28]
하지만 경쟁사들의 접근을 차단하는 것부터 시작해볼게요
[03:30]
이게 최근의 드라마거든요.
[03:32]
OpenAI 직원의 재미있는 인용문부터 시작할게요.
[03:34]
이건 밈 인용문이지만 요점은 알 수 있어요.
[03:36]
'AI의 성과를 민주화하고
[03:38]
특이점이 도움되고, 해롭지 않고, 정직하도록 하는
[03:40]
우리 노력의 일환으로,
[03:41]
특이점을 연구하는 다른 사람들이
[03:43]
우리의 도움되고, 해롭지 않고, 정직한 모델과
[03:44]
채팅할 수 있는 능력을 거부하기로 결정했습니다.'
[03:47]
이거 재미있을 거예요.
[03:49]
역사적으로 Anthropic은
[03:51]
정말 긍정적이고, 좋고, 친절하고,
[03:52]
인류의 최선을 위해 일하는 회사로
[03:54]
자신들을 포지셔닝하려고 했어요.
[03:56]
누군가 그런 식으로 하면
[03:58]
저는 항상 약간 의심스러워해요.
[04:02]
그리고 그들의 경우에는
[04:04]
모순이 꽤 터무니없다고 생각해요.
[04:06]
최근에 유출된 CEO의 메모가 있어요
[04:09]
그런데 그 사람은 OpenAI에서 일했던 사람인데
[04:11]
이렇게 말했어요. '안타깝게도,
[04:13]
나쁜 사람은 절대 우리의 성공으로부터
[04:15]
이익을 얻어서는 안 된다는 것은
[04:17]
사업을 운영하기에는 꽤 어려운 원칙이라고 생각한다
[04:19]
걸프 국가 투자 추진 가능성에 대한
[04:21]
직원들에게 보낸 메모에서 다리오가 썼다.'
[04:23]
네, 이게 지금 Anthropic이
[04:26]
작동하는 방식인 것 같아요.
[04:28]
한편으로는 멋지고, 좋고, 사려 깊은
[04:30]
모델을 구축하는 회사가 되려고 하지만
[04:31]
실제로는 그냥 또 다른 비즈니스일 뿐이고
[04:35]
[04:37]
네,
[04:40]
이게 지금 Anthropic이 느껴지는 방식이에요.
[04:42]
한편으로는
[04:44]
멋지고, 좋고, 사려 깊은 회사가 되려고 하지만
[04:47]
실제로는 그냥 또 다른 비즈니스이고
[04:52]
현재 주요 AI 랩들 중에서
[04:55]
그들이 가장 적게 기여하고 있어요
[04:57]
물론 MCP라는 멋진 표준이 있긴 하지만
[04:59]
멋진 표준이긴 해요
[05:01]
동시에 그들은 Claude Code를 가지고 있는데
[05:03]
이게 현대적인 CLI 코딩 도구들 중에서
[05:06]
유일하게 오픈소스가 아닌 것이에요
[05:08]
다른 것들은 모두 오픈소스인데
[05:10]
Claude Code는 오픈소스가 아닐 뿐만 아니라
[05:12]
앞서 언급했듯이, 사람들이 리버스 엔지니어링을 시도하고
[05:14]
발견한 내용을 공유하려고 하면
[05:16]
DMCA 테이크다운을 보내고 있어요
[05:18]
그리고 정말 민망한 영상이 있는데
[05:20]
Claude Code를 만든 사람이 한 말들이
[05:23]
제게는 좀 그렇더라고요
[05:24]
2월에 Claude Code를 출시했습니다
[05:27]
네
[05:28]
3개월이 조금 넘었는데
[05:30]
어땠나요? 커뮤니티 반응은 어땠나요?
[05:32]
정말 대단했어요
[05:34]
완전히 예상밖이었죠
[05:37]
출시하기 전에는
[05:39]
출시할지 확신이 없었거든요
[05:40]
출시할지 말지 고민이 있었어요
[05:41]
내부적으로 이 도구가
[05:43]
우리 엔지니어들과
[05:45]
연구진들을 매우 생산적으로 만들어서
[05:47]
이런 논쟁이 있었어요
[05:48]
이게 우리의 비밀 소스인가?
[05:50]
사람들에게 공개해도 되나?
[05:52]
Anthropic의 모든 사람들이 매일 사용하는
[05:54]
같은 도구인데
[05:54]
네, 그들은 Claude Code 출시를 고민했어요
[05:57]
비밀 소스라고 생각해서
[06:00]
자신들을 그렇게 생산적으로 만드는
[06:01]
기술을 공개하고 싶지 않았던 거죠
[06:04]
정말 역겨워요
[06:06]
직설적으로 무례하게 말하고 싶지 않지만
[06:08]
이런 식으로 생각하기 시작하는 데 필요한
[06:10]
오만함이 저에게는 터무니없어 보여요
[06:13]
Anthropic은 자신들의 경쟁력이 얼마나 약한지
[06:16]
알고 있는 것 같아요
[06:18]
과감한 말을 하자면
[06:20]
Anthropic이 지금 관련성을 유지하는 유일한 이유는
[06:23]
툴 콜링에서의 초기 리드 때문이에요
[06:25]
다른 모든 회사들보다 먼저
[06:27]
이 기술을 제대로 구현했거든요
[06:29]
AI를 중심으로 자신만의 도구나
[06:31]
제품을 만들고 싶다면
[06:33]
자신만의 에이전트를 구축한다면
[06:35]
터미널에서 실행되는 것을 만든다면
[06:36]
커서나 윈드서프 같은
[06:38]
AI 에디터를 만든다면
[06:39]
다른 무엇을 만든다면
[06:41]
Anthropic의 모델들이 훨씬 뛰어났어요
[06:43]
어떤 작업을 설명하는 형식을 받아들이는 데
[06:45]
예를 들어 날씨를 조회하고 싶다면
[06:47]
도구 이름은 날씨, 값은 우편번호라고 알려주면
[06:51]
이렇게 하면 날씨 정보를 얻을 수 있다고
[06:54]
알려주면
[06:56]
날씨 정보를 가져와서
[06:57]
실제로 수행해요
[06:59]
그들의 모델이 이 기능을 먼저 가지고 있어서
[07:01]
큰 이점을 얻었어요
[07:03]
최근까지
[07:05]
툴을 안정적으로 호출할 수 있는
[07:06]
다른 옵션이 많지 않았거든요
[07:10]
Gemini 2.5 Pro조차 툴로 무엇을 할 것인지
[07:11]
말하고는 실제로 하지 않는 경우가 많아요
[07:12]
업데이트할 때마다 무작위로
[07:14]
성능이 떨어지는 것을 계속 발견해왔어요
[07:15]
실제 에이전트 작업에 사용하려고 하면
[07:17]
더욱 나빠지죠
[07:19]
여전히 Anthropic 모델들이
[07:21]
이 분야에서는 단연 최고라고 생각해요
[07:23]
그렇긴 하지만 이제 경쟁에 직면하고 있어요
[07:26]
Anthropic이 직면한 가장 큰 위험이에요.
[07:28]
이 모델들은 도구 호출을 정말 잘하죠.
[07:30]
그리고 오픈 웨이트라는 점이 중요해요.
[07:32]
우리가 원하는 대로 무료로 사용할 수 있을 뿐만 아니라
[07:34]
이 모델들을 사용해서 데이터를 생성하고
[07:37]
다른 모델들을 훈련시켜 도구 호출을 잘하도록 만들 수도 있어요.
[07:39]
이 두 오픈 웨이트 모델은
[07:40]
누구나 다운로드해서 사용할 수 있는 모델들이에요.
[07:42]
그리고 1년 전만 해도 Anthropic만이 할 수 있었던
[07:44]
그 특별한 일을 해내죠.
[07:46]
3.5 Sonnet은 게임 체인저였어요.
[07:48]
Anthropic 버블 밖에서 따라잡는데 거의 1년이 걸렸죠.
[07:51]
하지만 이제 따라잡혔어요.
[07:52]
이제 이런 일을 할 수 있는 모델들이 많이 있어요.
[07:54]
현재 Open Router에서 사용 가능한 Horizon 모델들은
[07:57]
아마도 큰 랩에서 만든 것 같은데
[07:58]
도구 처리를 정말 잘해요.
[08:00]
GPT 4.1 같은 최신 OpenAI 모델들도
[08:01]
도구 호출을 정말 잘하죠.
[08:04]
이런 오픈 웨이트 모델들도
[08:05]
도구 호출을 정말 잘해요. 경쟁 우위를 잃고 있어요.
[08:08]
잠시 동안은 UI 분야에서도 더 나았죠.
[08:10]
한동안 Anthropic 모델들이
[08:12]
Tailwind에서 가장 뛰어났어요.
[08:14]
Claude Opus로 이미지 스튜디오를 생성했는데
[08:16]
Horizon 모델 영상용이었어요.
[08:18]
이렇게 만들어졌죠.
[08:20]
괜찮은 작업을 했어요.
[08:22]
하지만 Horizon이 생성한 것과 비교하면
[08:24]
밤과 낮만큼 차이가 나요.
[08:26]
UI에서도 경쟁 우위를 잃어가고 있어요.
[08:28]
참고로 이건 추론 모델도 아니에요.
[08:30]
Horizon Beta는 추론 기능이 없는데도
[08:33]
현재 Anthropic이 제공하는
[08:34]
가장 비싼 모델보다
[08:36]
훨씬 나은 결과물을 만들어냈어요.
[08:37]
경쟁 우위가 빠르게 사라지고 있고
[08:39]
지금까지 비즈니스를 운영해온 방식은
[08:41]
그 우위를 매우 보수적으로 지키는 것이었어요.
[08:44]
그들은 Windsurf나 OpenAI 같은 회사들이
[08:45]
자신들의 모델을 사용해서
[08:47]
그들의 모델을 개선하려 한다고 주장하죠.
[08:49]
그 비밀 소스를 훔치려 한다는 거예요.
[08:52]
이전 영상에서 들었던 바로 그 이야기죠.
[08:54]
아니에요, 그건 어리석은 생각이에요.
[08:55]
사람들이 계속해서 연구를 발표하고
[09:00]
학습 내용을 공유하고
[09:02]
오픈 웨이트를 공개하는 세상에서
[09:03]
Anthropic만이 이 모든 걸 잘못하고 있다는 게
[09:05]
정말 미친 일이죠.
[09:07]
CLI를 클로즈드 소스로 릴리즈한 유일한 회사가
[09:09]
바로 Anthropic이에요.
[09:11]
Gemini CLI를 가진 Google과
[09:12]
Codeex를 가진 OpenAI 모두
[09:14]
CLI를 완전히 오픈소스로 공개했고
[09:17]
다른 모델 지원을 추가하는 기여도 받고 있어요.
[09:19]
OpenAI의 Codex가 출시된 날
[09:22]
클라우드 모델을 추가하는 PR이 올라왔고
[09:24]
같은 날 병합되었어요.
[09:26]
또한 오픈 웨이트 모델을 릴리즈하지 않는
[09:28]
유일한 회사이기도 하죠.
[09:30]
OpenAI도 안 했다는 건 알지만
[09:32]
곧 나올 것 같은 느낌이 있어요.
[09:34]
이 영상이 올라갈 때쯤엔
[09:36]
이미 나와 있을지도 모르죠.
[09:37]
그들은 정말 열심히 노력하고 있어요.
[09:38]
Anthropic은 그런 일에
[09:40]
전혀 관심이 없어 보여요.
[09:42]
또한 가격을 내리거나
[09:45]
더 저렴하게 만들려는 노력을
[09:47]
전혀 하지 않는 유일한 랩이에요.
[09:49]
Gemini조차 캐시 레이어를 대대적으로 개편했는데
[09:51]
이는 즉각적인 비용 절감 효과를 가져왔어요.
[09:53]
비용을 절감해주지 않습니다.
[09:56]
그들이 하는 좋은 일들도 있어요.
[09:57]
그냥 여기 앉아서
[09:59]
그들을 비난만 하고 싶지는 않습니다. 그들의 시스템 카드는
[10:03]
Anthropic이 인정받을 만합니다
[10:05]
SnitchBench로요. 제가 그
[10:06]
벤치마크를 만들지 않았을 텐데, 그들이
[10:08]
Opus와 함께 발표한 상세한 시스템 카드가 없었다면요
[10:09]
V4와 함께 발표한 Sonnet 말이죠. 그 시스템 카드들이
[10:12]
정말 좋은 아이디어를 주었고, 또한
[10:14]
트위터의 수많은 광신도들에 의해
[10:15]
심각하게 잘못 해석되어서, 제가
[10:17]
벤치마크를 만들어서 그들이 틀렸음을 증명해야 했어요
[10:19]
지금 관련성이 있고 아마도
[10:20]
연구가 발표될 수 있는 벤치마크로요. 놀랍죠.
[10:22]
그들은 또한 일종의 표준을 만들어요. MCP처럼,
[10:25]
제가 싫어하긴 하지만, 괜찮아요. 그리고
[10:28]
그들이 그렇게 할 수 있는 방법이 정말로
[10:29]
표준으로 릴리즈하는 것 외에는 없었어요.
[10:32]
하지만 네, 다른 좋은 점들을 생각해보려고 하는데
[10:35]
솔직히 좀 힘드네요.
[10:36]
저는 그냥 복잡한 감정을 가지고 있어요.
[10:38]
제 편견을 고려해야 하고, Anthropic이
[10:40]
제가 언제든지 마주치는
[10:42]
가장 큰 청구서 중 하나라는 사실 말이에요.
[10:43]
이 사람들이 가져가는 제 돈의 양이
[10:45]
터무니없어요.
[10:47]
그리고 그들이 우리에게 제안한 할인은
[10:49]
월 최소 2만 달러 지출을 약정하면 5%였어요.
[10:52]
그래서 제가 6만 달러를 보내면
[10:54]
최소 3개월 약정이라서
[10:56]
제가 6만 달러를 건네면
[10:57]
그들은 친절하게도 5% 할인을 해주겠다는 거예요
[10:59]
2만 달러 지출에 도달할 때까지만 하고
[11:01]
그 다음엔 다시 정상가로
[11:02]
돌아가는 거죠. 뭐라고요? 미친 거예요.
[11:05]
완전히 터무니없어요.
[11:07]
하지만 액세스 차단 문제를
[11:09]
더 자세히 살펴보고 싶어요
[11:11]
이게 특히 엿같다고 생각하거든요.
[11:14]
Windsurf 사건은 더욱 웃겼는데
[11:16]
Windsurf 인수가 실제로는 성사되지도 않았거든요.
[11:18]
Anthropic은 그냥 일찍부터 공격적이었어요
[11:20]
그들이 좀 오만한 놈들이거든요.
[11:22]
그들이 이럴 이유가 없었어요.
[11:24]
그들의 최고 과학 책임자 Jared Kaplan이
[11:27]
인터뷰에서 이에 대해 질문받았을 때
[11:29]
무대에서 "우리가 Claude를
[11:31]
OpenAI에 판매하는 것은 이상할 것 같다"고 말했어요.
[11:33]
Windsurf는 Anthropic에서 완전히 차단당했지만
[11:37]
그것이 어떻게 작동하는지에 대해
[11:38]
정말 웃긴 점이 있어요. Anthropic
[11:41]
모델은 GCP와 AWS에서 사용할 수 있어요.
[11:44]
Open Router로 가서, Claude로 가서
[11:46]
Sonnet 4로 가보면, 여러분은 Google Vertex와 Bedrock을
[11:49]
그들의 모델에 사용할 수 있을 뿐만 아니라
[11:51]
실제로 더 빠르고
[11:53]
종종 더 신뢰할 수 있다는 걸 보게 될 거예요.
[11:55]
공식 API를 통해서만
[11:56]
Claude 모델을 사용하기 어려운 지경이에요
[11:58]
Open Router가 훨씬 더
[12:00]
신뢰할 수 있게 만들어주거든요. Anthropic이
[12:02]
다운될 때, 저를 믿으세요, 그들은
[12:03]
다운될 거예요. 그들은 많이 다운될 거예요.
[12:06]
Amazon Bedrock이나
[12:08]
다양한 Vertex 배포로
[12:10]
대신 폴백할 수 있어요. 그래서 Anthropic이 누군가를
[12:12]
차단할 때, 그들은 모델에 대한 액세스를 차단하는 것도 아니에요.
[12:14]
그들은 Anthropic 인프라 같은 것에 대한 액세스를
[12:17]
직접적으로 제한하도록 강요하는 거예요.
[12:19]
그래서 여전히 Windsurf 에디터에서 Claude를 사용할 수 있어요.
[12:22]
그들은 그냥 쪼잔하게 굴고 있는 거예요.
[12:24]
그들이 이렇게 하는 유일한 이유는
[12:26]
화가 나서 그런 거예요. 그리고 그들이
[12:28]
공개적으로 불만을 토로하고 싶어하는 거죠. 그리고
[12:30]
그들이 그렇게 하는 이유는 사람들이
[12:32]
자신들을 어떻게 느끼는지 보여주고 싶어하기 때문인데,
[12:34]
지금 우리가 하고 있는 게 바로 그거죠. 그리고
[12:35]
우리는 그들을 조롱할 겁니다
[12:36]
왜냐하면 이건 치사하고, 자기도취적이고,
[12:38]
완전히 형편없는 행동이기 때문이에요. 그리고 진짜
[12:39]
수십억 달러 규모의 회사가
[12:41]
이런 짓을 한다는 게 믿어지지 않아요. 이놈들은 600억
[12:43]
달러의 가치를 가진 회사인데 멋대로
[12:46]
접근을 제한하고 무대에서 헛소리를
[12:48]
지껄이고 있어요
[12:50]
얼마나 불안한지 보여주는 거죠. 정말 미친 일이에요. 난
[12:52]
이런 일이 계속 일어나고 있다는 게 믿어지지 않아요.
[12:53]
그리고 우리가 오늘 이걸 촬영하는 이유는
[12:55]
Anthropic과
[12:56]
OpenAI가 클라우드 접근이
[12:59]
차단되었다는 사실을 방금 확인했기 때문이에요.
[13:01]
OpenAI가 왜 접근이 필요할까요?
[13:04]
벤치마크를 실행해야 하거든요.
[13:05]
바로 이게 OpenAI가 벤치마크를
[13:08]
실행하지 못하게 하려는 시도예요
[13:10]
Anthropic 모델과 자신들의
[13:12]
모델을 비교하지 못하게 말이죠. 하지만 앞서 말했듯이, 그들은
[13:14]
다른 공급업체를 통해서도 사용할 수 있어요.
[13:16]
그러니까 이건 순전히 치사한 행동이에요. 이건
[13:19]
순전히 악의적이고, 순전히 한심하며
[13:21]
그들이 이런 헛소리로
[13:22]
비판받아 마땅해요. 이건
[13:24]
불안한 제품 관리자가 회사에서 하는 짓이에요.
[13:26]
수십억 달러 규모의 대기업이 할 일이 아니죠.
[13:28]
최소한 조롱받지 않고는 하지 않죠.
[13:31]
그런데 지금 우리가
[13:32]
여기서 하고 있는 게 바로 그거예요. 왜냐하면 이건
[13:33]
정말 한심하거든요.
[13:34]
이것에 대해 더 알아볼수록
[13:36]
더 바보 같은 일이 되어가요.
[13:38]
여기 Anthropic 대변인의
[13:40]
성명서가 있어요. Claude Code는
[13:42]
전 세계 코더들의 첫 번째 선택이
[13:44]
되었습니다. 그래서
[13:45]
OpenAI의 기술 직원들도
[13:47]
GPT5 출시를 앞두고 저희 코딩 툴을 사용하고 있다는 것을
[13:49]
알게 된 것은 놀랄 일이 아니었습니다. 하지만 안타깝게도 이는
[13:52]
저희 서비스 약관의 직접적인
[13:54]
위반입니다. 고객들은 경쟁 제품이나
[13:56]
서비스를 구축하기 위해 서비스를 사용하는 것이
[13:58]
금지되어 있으며, 여기에는 경쟁하는
[14:00]
AI 모델 훈련도 포함됩니다.
[14:02]
또한 서비스를 리버스 엔지니어링하거나
[14:03]
복제하는 것도 허용되지 않습니다.
[14:05]
이건 한심해요. 이 말은
[14:07]
방금 깨달았는데 이 말은 우리가
[14:09]
클라우드 코드를 사용할 수 없다는 뜻이에요. 내가
[14:11]
클라우드 코드를 사용하는 것이
[14:13]
서비스 약관 위반이래요. 왜냐하면 우리는
[14:15]
Anthropic과 경쟁하는 채팅 앱인
[14:17]
T3 Chat을 만들고 있거든요.
[14:19]
그들이 우리 웹사이트의
[14:20]
모델 접근도 차단할 건가요?
[14:22]
그들이 그렇게 불안해서 내가
[14:24]
Anthropic 모델 제공을 중단해야 할까요?
[14:26]
정말 그 지경까지 온 건가요?
[14:28]
그들이 정말 그렇게 한심한 건가요?
[14:30]
구글도 차단할 건가요?
[14:32]
구글이 더 좋은 모델을 가지고 있다고 해서 말이에요? 난
[14:33]
곰을 좀 찌르지 않을 수가 없네요.
[14:35]
아직 T3 Chat을 사용해보지 않으셨다면, 우리는 이 앱에
[14:37]
온 마음과 영혼을 쏟고 있어요.
[14:39]
정말, 정말 좋습니다.
[14:40]
월 8달러로 모든 모델에 접근할 수 있어요.
[14:42]
반면 그들은 월 20달러로 세 개의 모델만
[14:44]
제공하죠. 둘 다 제한이 있지만,
[14:46]
그들의 제한은 훨씬 덜 투명하고, 그들의 앱도
[14:47]
정말 형편없어요. Claude.ai가 얼마나
[14:49]
비참한지 설명하는 긴 영상도 있어요.
[14:51]
우리는 사용하기 편하도록
[14:54]
세부사항을 정말 신경써서 만들었어요.
[14:55]
모든 클라우드 모델과 다른
[14:57]
우수한 모델들을 모두 지원하며
[14:58]
월 8달러면 됩니다.
[15:00]
아직 구독하지 않으셨다면
[15:01]
첫 달은 1달러에 드려요.
[15:03]
할인을 받으려면 체크아웃에서
[15:05]
코드 'weird vibes'를 사용하세요.
[15:07]
그런데 구글이 더 이상
[15:09]
클라우드에서 Anthropic 모델을 제공할 수
[15:11]
없게 될까요? 그럴 가능성이 높다고 생각해요.
[15:13]
정말로 곧 구글과 Anthropic이
[15:14]
크게 결별하는 순간이 올 것 같아요.
[15:16]
왜냐하면 구글이 이제 Anthropic보다
[15:19]
더 좋은 모델을 만들고 있거든요.
[15:21]
정말 복잡해질 거예요.
[15:23]
내가 먼저 이런 예측을 했다는 걸
[15:26]
기록해 두세요. Anthropic은 앞으로
[15:28]
훨씬 더 비굴하고 복잡해지면서
[15:31]
명백히 어리석은 행동들을
[15:33]
시작할 거예요. 지금 하고 있는 일들도
[15:35]
제 생각에는 명백히 어리석거든요.
[15:36]
누군가가 당신의 작업을 좋아한다고
[15:38]
DMCA 신고를 하는 것처럼요.
[15:40]
이건 정말 미친 일이에요. Dave Schumer가
[15:43]
Claude 코드 소스를 파헤쳤는데
[15:45]
정말 재미있는 시간을 보냈어요.
[15:47]
다시 말하지만, Anthropic은 정말 불안해해요.
[15:49]
그래서 Claude 코드 소스에 대한
[15:51]
접근을 제한하려고 했어요.
[15:53]
이미 출시 당시에도 기존의
[15:54]
오픈소스들이 있었는데도 말이에요.
[15:56]
ADER 같은 것들이 있었어요. 이건
[15:57]
Python으로 만든 정말 좋은 오픈소스
[16:00]
CLI 에이전트 코딩 도구거든요.
[16:01]
Dave는 Claude 코드의 구현이
[16:03]
ADER와 어떻게 다른지 궁금했어요.
[16:06]
그래서 살펴보러 갔는데 npm 패키지에서
[16:09]
가져온 거대하고 복잡한 압축 파일을 봤어요.
[16:12]
여기서 Sentry 관련 내용을 볼 수 있어요.
[16:13]
CLI 안에서 Sentry를 사용하고 있네요. 흥미롭죠.
[16:16]
하지만 소스 맵이 활성화되어 있어서
[16:18]
스크롤하면 소스 맵을
[16:20]
찾을 수 있었어요. 그런데 Dave가 잠깐
[16:22]
쉬는 동안 업데이트가 배포됐나 봐요.
[16:24]
그 업데이트에서 소스 맵
[16:26]
URL 문자열이 사라졌어요.
[16:28]
Anthropic 사람들이 큰 실수를
[16:29]
깨닫고 소스 맵을 제거하는
[16:31]
업데이트를 배포했어요.
[16:33]
괜찮아요, 이전 버전을 가져오면 되니까.
[16:35]
어? 그것도 제거했네요.
[16:36]
npm에서 패키지의 이전 버전을
[16:39]
제거하는 게 얼마나 어려운지 아세요?
[16:41]
거의 불가능해요. 누군가가 많은 줄을 당겨서
[16:44]
패키지의 다른 버전을
[16:45]
npm에서 제거했을 거예요.
[16:48]
그런 일은 거의 일어나지 않아요.
[16:50]
정말 재미있는 조합이에요.
[16:53]
소스 맵 URL을 배포하는 무능함,
[16:56]
그것을 처음부터 숨기려고 할 정도의 불안감,
[16:58]
그리고 그것을 npm에서
[17:00]
실제로 제거할 수 있는 인맥과
[17:03]
일종의 괴롭힘 행동들이
[17:05]
합쳐진 거죠. 정말 한심해요.
[17:08]
다행히도 Dave가 자신의 컴퓨터에
[17:10]
아직 가지고 있어서 소스 맵
[17:12]
URL을 통해 실제로 분석하고
[17:14]
모든 소스 코드를 찾아서
[17:16]
ink를 사용하고 있다는 걸 확인했어요. 애니메이션은 단순히
[17:19]
그냥 ASCII 문자들일 뿐입니다. 시스템 프롬프트에
[17:21]
유출될 비밀 소스는 없어요.
[17:23]
기억하세요, 그들이 걱정했던
[17:24]
비밀 소스 말이에요. 그런 건 전혀 없습니다.
[17:26]
파일들은 아마 꽤 빨리 구식이 될 거예요.
[17:27]
Anthropic 팀이 활발하게
[17:29]
툴을 개발하고 있거든요.
[17:30]
그들은 이미 2.19버전까지 나왔어요.
[17:32]
이건 2.8버전에서 나온 거였거든요.
[17:34]
그래서 그 코드를 게시한 대가는 DMCA 신고였습니다.
[17:36]
다행히도 GitHub은 Anthropic과는 달리
[17:38]
비교적 투명한 회사입니다.
[17:40]
그래서 그들이 받는 모든 DMCA 요청들이
[17:42]
DMCA 레포에 공개됩니다. 그래서 우리는
[17:44]
Anthropic이 이런 짓을 했다는 걸 볼 수 있어요.
[17:47]
그리고 이런 일이 처음이 아니라는 것도
[17:49]
알 수 있습니다. 그들은 정말 DMCA 신고를 좋아해요.
[17:52]
클라우드 코드를 재호스팅하려는 사람들에게 말이죠.
[17:55]
자기들 실수 때문에 삭제한
[17:58]
모든 레포들을 보세요. 냉혹한 현실은
[18:00]
최근 다른 모델들의 툴 호출 혁신이
[18:02]
없었다면, 우리는 어느 정도
[18:04]
이걸로 만족해야 했을 거라는 겁니다.
[18:05]
다행히도 다른 모델들에서
[18:07]
많은 혁신이 있었고, Anthropic을
[18:09]
따라잡고 넘어서고 있습니다.
[18:11]
이것이 올해 OpenAI의 집중 포인트였던 것 같아요.
[18:13]
4.1 드롭 영상과 04 미니 드롭 영상에서
[18:15]
여러 번 얘기했듯이,
[18:17]
OpenAI는 정말로 개발자들을 되찾고 싶어하는 것 같아요.
[18:19]
왜냐하면 벤치마크에서 모델이 얼마나 똑똑한지는
[18:21]
중요하지 않다는 걸 알았거든요.
[18:23]
개발자들이 그걸 사용하지 않고
[18:25]
그걸 중심으로 뭔가를 만들지 않으면,
[18:26]
장기적으로 질 가능성이 높아요.
[18:27]
그리고 Anthropic의 강점은 개발자들이
[18:29]
그들을 좋아하고 그들을 중심으로
[18:31]
뭔가를 만든다는 거였어요. 그 강점이 빠르게
[18:33]
사라지고 있습니다.
[18:34]
만약 그들이 합리적인 회사였다면,
[18:37]
그것을 인식하고 방향을 수정했을 거예요.
[18:39]
Claude 코드를 오픈소스로 만들었을 거고,
[18:41]
모든 모델을 오픈웨이트로 출시하고,
[18:43]
가격을 좀 낮추고,
[18:44]
PR 수리 작업을 벌여서
[18:45]
이 모든 문제들을 고치려고 했을 거예요.
[18:47]
Anthropic이 제게 연락하고
[18:49]
정보를 얻기가 가장 어려운 회사라는 사실,
[18:50]
저는 Gemini에서 DM이나 문자 메시지로
[18:53]
레이트 제한을 늘릴 수 있어요.
[18:55]
OpenAI에서는 이미 승인받아서
[18:57]
그런 문제가 없어요. 사실 OpenAI는
[19:00]
미리 알려주기까지 해요.
[19:02]
그들은 정말 훌륭해요.
[19:03]
OpenAI는 인플루언서로서,
[19:04]
그리고 그들 위에 뭔가를 만드는 빌더로서
[19:07]
함께 일하기 정말 좋았어요.
[19:09]
Anthropic은... 저는 정말
[19:11]
많은 애를 써서 Anthropic의
[19:14]
인프라에서 레이트 제한을 약간 늘렸어요.
[19:17]
첫날 T3 채팅에서
[19:18]
Claude 4를 작동시키기 위해서는
[19:21]
정말 끔찍했어요.
[19:23]
우리의 최악의 적이나 경쟁자에게도
[19:25]
그런 일은 겪게 하고 싶지 않아요.
[19:27]
제가 할 수 있는 최선의 표현은
[19:29]
제목에 적은 그대로예요.
[19:30]
그들에게서 정말 이상한 느낌을 받거든요.
[19:33]
Anthropic과 함께 일하고,
[19:35]
Anthropic 위에 뭔가를 만들고,
[19:36]
Anthropic을 다루고, 그들의 관행을 살펴보고,
[19:39]
이 모든 것들을 발견하는 경험에서요.
[19:41]
Anthropic에 대해 더 깊이 알아볼 때마다
[19:43]
그냥 이상한 느낌이 들어요. 그리고 이게 안타까운 이유는
[19:45]
제가 아는 정말 똑똑한 친구들이 거기서 일하고
[19:47]
훌륭한 일을 하고 있기 때문이에요.
[19:48]
그들의 연구 중 일부는 정말
[19:50]
놀라워요. 시스템 카드의 세부 사항은
[19:52]
정말 유용해요. 그들의 모델들은
[19:53]
멋진 일들을 가능하게 하고 있어요.
[19:56]
하지만 그들이 회사를 운영하는 방식은
[19:58]
기껏해야 어색하고, 문제가 있거나
[20:00]
최악의 경우 해로워요. 그리고 우리는
[20:02]
이에 대해 더 얘기해야 해요.
[20:04]
Anthropic의 모델이 Tailwind 작성에
[20:05]
똑똑하다는 이유로 모든 걸
[20:07]
용서할 수 있는 척하는 것에 지쳤어요.
[20:09]
현실적으로 그들은 개발자로서
[20:11]
함께 일하기에 현대 모델 시장에서
[20:13]
가장 최악의 회사예요.
[20:15]
제가 이 영상을 올린 후에
[20:16]
그들이 제 액세스를 차단하는 데
[20:17]
얼마나 걸릴지 지켜봅시다.
[20:19]
안 그러길 바라지만, 적어도
[20:20]
그렇게 된다면 좋은 콘텐츠는
[20:22]
나올 거예요. 더 할 말은 없네요.
[20:23]
들어주셔서 감사합니다. 안녕히.