[00:00]
우리는 GPT-5 출시에 대해
[00:01]
진지하게 대화를 나눠야 할 것 같습니다.
[00:03]
예상했던 것과는 조금 다르게 진행됐거든요.
[00:06]
제 최근 영상의 댓글을 보셨다면
[00:08]
사람들이 이 모델에 대해 얼마나
[00:10]
기대했던 것과 다르다고 느끼는지
[00:12]
알 수 있을 겁니다.
[00:14]
여기에는 여러 층위가 있고
[00:16]
그중 많은 부분이 사실 어느 정도는
[00:18]
제 잘못입니다. 시간을 내서
[00:20]
여러분과 함께
[00:21]
모든 세부사항을 살펴보고 싶습니다.
[00:23]
OpenAI와 함께 작업했던 제 경험부터
[00:24]
어떻게 보상을 받았는지,
[00:26]
출시 이후 어떻게 상황이 변했는지,
[00:28]
제 기대가 어떻게 충족되지 않았는지,
[00:31]
그리고 가장 중요하게는 현재 GPT-5를 사용하면서
[00:33]
겪고 있는 경험이 출시 전
[00:35]
테스트했을 때보다 상당히 나쁘다는 것까지 말이죠.
[00:37]
여기에는 파고들 내용이 정말 많고
[00:38]
사실 지금 휴가에서
[00:40]
돌아온 참이지만,
[00:43]
시간을 내서 이걸 설명하고 싶었습니다.
[00:44]
많은 혼란과 좌절감,
[00:47]
그리고 잘못된 정보가 퍼지고 있는 걸 보고 있고
[00:49]
최선을 다해 그런 일의
[00:51]
일부가 되고 싶지 않기 때문입니다.
[00:54]
먼저 가장 중요한 것은
[00:56]
아주 분명히 해두고 싶은 것이
[00:58]
여러분이 아마 지금 ChatGPT와 GPT-5로
[01:00]
경험하고 있는 것은
[01:03]
제가 처음 테스트했을 때의 경험과는 다르다는 것입니다.
[01:05]
이에 대한 세부사항은
[01:06]
잠시 후에 다루겠지만, 먼저
[01:08]
다른 몇 가지를 짚고 넘어가겠습니다.
[01:10]
많은 분들이 저를 OpenAI의
[01:12]
유료 홍보꾼이라고 비난하는 걸 보고 있습니다.
[01:15]
이건 너무나 우스울 정도로
[01:17]
사실이 아니어서 이런 일이 벌어지는 것 자체가
[01:19]
거의 화가 날 지경입니다. 하지만 왜 이런
[01:21]
반발을 받고 있는지는 이해합니다.
[01:23]
저는 그게 정말 좋다고 말했거든요.
[01:25]
저에게는 그랬습니다. 정말 놀라웠어요.
[01:27]
그리고 그것이 얼마나 강력한지 본 제 진짜
[01:30]
순수한 반응을 녹화하려고 노력했습니다.
[01:31]
여러분이 그걸 보길 원했거든요.
[01:33]
마케팅 헛소리가 아니라 말이에요.
[01:35]
OpenAI로부터 한 푼도 받지 않았습니다.
[01:38]
사실 지난 2-3주 동안
[01:40]
T3 Chat으로 추론 비용만 약 25,000달러
[01:42]
적자를 보고 있습니다.
[01:44]
그러니까, 아니에요. 그들이 저에게
[01:45]
돈을 주지 않았습니다. 오히려 많은 돈을 잃고 있어요.
[01:47]
제가 출연한 영상에 대해
[01:49]
1,000달러의 출연료는 제안했지만,
[01:51]
제가 출연한 그 영상을
[01:53]
더 잘 이해할 필요가 있다고 생각합니다.
[01:55]
최대한 투명하게 하기 위해
[01:57]
제가 그 출시에 어떻게 참여하게 되었는지
[01:58]
사건의 순서를 여러분께 말씀드리겠습니다.
[02:01]
GPT-5에 조기 접근 권한을 가진
[02:02]
친구들이 있었습니다.
[02:04]
그렇게 엄격하게 제한된 건 아니었어요.
[02:06]
특히 얼마나 많은 사람들과 회사들이
[02:08]
조기 접근 권한을 가지고 있었는지 알면 놀랄 겁니다.
[02:10]
저도 조기 접근을 원했습니다.
[02:12]
당연히 그러겠죠. 누가 새로운 걸
[02:14]
일찍 써보고 싶지 않겠어요?
[02:15]
그래서 OpenAI의 제 연락처들에게
[02:17]
연락했는데, 회사가 아니라
[02:19]
개인으로서 연락한 것이었기 때문에
[02:21]
다른 사람들이 받은 것 같은
[02:22]
조기 회사 접근 권한은 얻을 수 없었지만,
[02:24]
그들이 계획하고 있던 출시 영상이 있다는 걸
[02:26]
깨달았고 제가 거기 몰래 들어갈 수 있다고 했습니다.
[02:28]
사람들이 편견에 대해 우려할 것이라는 점을 고려했어요
[02:29]
제가 그런 일을 하는 것에 대한 내재된 편견 말이죠
[02:31]
하지만
[02:33]
제 친구 Simon Willis가
[02:35]
참여한다는 걸 알았을 때
[02:36]
아, 그럼 이건 아마 그렇게 큰 문제가 아닐 거야
[02:39]
라고 생각하며 참여하기로 결정했어요
[02:41]
정말 멋진 경험이었어요
[02:43]
더 합리적인 입장에서 참여하게 되어 흥미로웠어요
[02:45]
AI에 완전히 빠진 개발자가 아니라
[02:48]
이런 것들에 대한 자신만의 자연스러운 생각을 가진 사람으로서요
[02:50]
전날 밤에 일부러
[02:52]
여러 벤치마크들과
[02:53]
테스트에 사용할 수 있는 것들을
[02:54]
많이 준비했어요
[02:56]
영상에서 제가 사용한 것 중 어떤 것도
[02:58]
웹사이트를 통한 것은 없었어요. 웹사이트에서는 별로 좋지 않다고 생각했거든요
[03:00]
하지만 API를 통해서는 정말 놀라웠어요
[03:02]
그리고 커서에서는 더욱 놀라웠고요
[03:04]
하지만 그렇다고 해서 제가 잘못이 없다는 건 아니에요
[03:05]
제가 저지른 가장 큰 실수 중 하나는
[03:08]
단연코 그 영상을 올린 것이었어요
[03:10]
커뮤니티 반응에 주의를 기울일 수 없는 상황에서 말이죠
[03:12]
저는 그 목요일 데프콘에 있었는데
[03:15]
GPT-5가 출시됐을 때였어요
[03:18]
트위터를 빠르게 훑어보며
[03:19]
사람들이 어떻게 느끼는지 확인했어요
[03:22]
제 영상에 대한 승인을 받았는데
[03:23]
그들이 심지어 보지도 않은 것이었어요
[03:25]
OpenAI는 제가 게시하기 전에 제 영상을 보지 않았어요
[03:28]
제가 거친 전체 승인 과정의
[03:29]
스크린샷을 화면에 올려놓을게요
[03:31]
그러면 이해하실 수 있을 거예요
[03:32]
그들은 모델에 대한 조기 액세스를 제공하고
[03:34]
우리가 문제에 부딪히고
[03:36]
임의의 상황들을 겪을 때
[03:37]
피드백을 주는 것 외에는
[03:39]
어떤 것에도 개입하지 않았어요
[03:41]
하지만 저는 그 영상을 게시했어요
[03:43]
대중의 반응을 전혀 보지 않고서요
[03:44]
그리고 나서 두 번째 영상을 녹화하고 게시했는데
[03:46]
대중 반응을 살짝만 맛본 상태에서였어요
[03:47]
그런데 대중의 반응은
[03:49]
제가 경험한 것과 맞지 않았어요
[03:51]
왜 그런 일이 일어났는지에 대한 여러 이론이 있고
[03:53]
앞으로 계속 자세히 다뤄보겠어요
[03:54]
하지만 가장 큰 이유는 단연코
[03:57]
사람들이 사용한 모델이
[03:59]
제가 사용한 것만큼 좋지 않았다는 것이에요
[04:01]
그렇다고 해서 제가 사용한 모델이 사용할 수 없다는 건 아니에요
[04:03]
저는 GPT-5 고도 추론 API 엔드포인트를 통해
[04:05]
같은 모델을 사용할 수 있다고 생각해요
[04:07]
하지만 그건 사람들이 chatgpt.com에 가서
[04:10]
처음으로 모델을 시도해볼 때의 경험이 아니에요
[04:12]
또는 GPT-5 박스를 체크할 때나
[04:14]
커서나 다른 도구들을 사용할 때의 경험도 아니고요
[04:16]
그래서 제가 한 발 더 나아가서
[04:18]
지금 보기에 명백히
[04:20]
다소 무책임한 트윗을 만들었을 때
[04:22]
다른 모든 도구들이 더 이상 관련이 없다고 말이죠
[04:24]
만약 여러분의 경험이
[04:26]
제가 거기서 말한 것과 맞지 않는다면
[04:28]
저는 그냥 돈을 받고 하는 것처럼 느껴질 거예요
[04:30]
그리고 사람들이 왜 그렇게 생각하는지 알 수 있어요
[04:33]
분명히 그런 사람들은 제 이력을 잘 모르고
[04:36]
제가 얼마나 열심히 노력하는지 모르는 거죠
[04:37]
지금까지 저에게 돈을 지불한
[04:39]
모든 사람에 대해
[04:40]
투명하게 공개하려고 노력하는지를요
[04:42]
하지만 만약 여러분이 많은 사람들이 chatgpt.com에서 경험한
[04:45]
그 나쁜 경험을 했다면
[04:47]
그리고 트위터에 가서 불평하다가
[04:49]
제 게시물을 본다면
[04:51]
왜 여러분이 그렇게 의심스러워하는지 이해할 수 있어요
[04:53]
저를 신뢰하기 주저할 만하다고 생각합니다. 앞서 언급했듯이
[04:55]
대부분의 일들이 벌어지고 있을 때 저는 휴가 중이었습니다.
[04:57]
디프콘 대회 참가차 라스베이거스에 있었고,
[04:59]
온라인에는 별로 신경 쓰지 않았습니다.
[05:02]
가끔 확인할 때마다
[05:03]
사람들이 제가 모델을 좋아한다고
[05:05]
비난하는 글들만 보였습니다.
[05:08]
지난 며칠간 조금 사용해본 결과는
[05:09]
솔직히 디프콘에서
[05:10]
랜덤한 퍼즐을 풀기 위해 사용했던
[05:12]
작은 코드베이스에서였는데,
[05:14]
조금 나빠진 것 같지만 크게 나빠지지는 않았습니다.
[05:17]
그 당시에는 더 깊이 생각할 마음도 없었고
[05:19]
퍼즐 풀이에 바빴고
[05:21]
휴가를 즐기려 했습니다.
[05:23]
하지만 오늘 하루를 내서
[05:25]
더 많이 코딩해봤습니다.
[05:28]
그리고 처음 써봤을 때만큼
[05:29]
좋지 않습니다. 제가 여기 트윗한 것과 정확히 같습니다.
[05:32]
GPT-5를 사용하는 경험은
[05:35]
커서의 빠른 버전까지 포함해서도
[05:38]
제가 이전에 사용했던
[05:40]
넥타린 725 빌드만큼
[05:43]
좋지 않습니다. 모델 자체의 문제라기보다는
[05:45]
모델을 사용하는 경험이
[05:48]
확실히 나빠졌습니다.
[05:51]
커서와 OpenAI 모두와
[05:52]
이야기를 나눠봤는데, 이들은 사전에
[05:54]
이 모든 것이 잘 작동하도록
[05:56]
많은 협력을 했습니다. 거기에도 재미있는 이야기들이 많죠.
[05:59]
하지만 커서에서 GPT-5를
[06:00]
개선하려는 그들의 시도가 현재로서는 오히려 해가 되고 있는 것 같습니다.
[06:03]
앞서 언급했듯이, 지난주 수요일
[06:06]
GPT-5 출시 전날부터
[06:07]
일주일이 지난 지금 수요일까지
[06:10]
저는 코딩을 많이 하지 않았습니다.
[06:13]
휴식을 취하려고 했거든요.
[06:14]
그래서 그 기간 동안
[06:17]
경험이 나빠졌다면
[06:19]
저는 알 수 없었을 겁니다. 하지만 제가 지금 언급하고 있는
[06:22]
성능 저하 대부분은
[06:23]
출시일에는 없었던 것 같습니다. 실제로
[06:26]
많은 사람들이
[06:26]
제가 이야기했던 것과 같은
[06:28]
고품질 경험을 GPT-5를 사용한
[06:30]
첫 하루나 이틀 동안 했지만
[06:32]
이후로 성능이 저하되는 것을
[06:34]
목격했다고 말하는 것을 보고 놀랐습니다.
[06:36]
출시일에는 정말 놀라울 정도로 한 번에 성공했는데
[06:38]
다음 날에는
[06:39]
클라우드 코드보다 나빠진 것 같았습니다.
[06:42]
너무 나빠지고 느려져서
[06:43]
첫날과 지금 사이에 엄청난 차이가 있습니다.
[06:46]
커서에서 어제 뭔가 바뀌었습니다.
[06:47]
채팅 히스토리를 살펴보고 같은 프롬프트를 실행해봤는데
[06:48]
조금 다른 정도가 아닙니다.
[06:50]
10점 만점에서 5점으로 떨어졌습니다.
[06:52]
솔직히 저도
[06:53]
같은 경험을 했습니다. AI 이미지 스튜디오 빌드를
[06:56]
계속 재생성해봤습니다.
[06:58]
이것은 제가 사무실에서
[07:00]
만들었던 바로 그 코드입니다.
[07:02]
커서에서 사용했던 정확한 프롬프트가 있고
[07:03]
이 프롬프트를
[07:05]
다양한 빌드에 대해
[07:06]
재사용해왔습니다. VS Code에서
[07:09]
코파일럿과 함께 사용해봤는데, 정말 못생겼습니다.
[07:13]
여기 그래디언트를 처리한 방식에서
[07:15]
렌더링 오류까지 볼 수 있는데
[07:17]
정말 심각합니다. 이것은
[07:19]
같은 품질과는 거리가 멉니다.
[07:21]
다시 말하지만, 정확히 같은 프롬프트입니다.
[07:23]
제가 만든 모든 다른 빌드들을
[07:25]
열어보기에는 너무 게을러서
[07:26]
스크린샷들이에요. 여기 Copilot으로
[07:28]
만든 것도 있는데, 보시면
[07:29]
그라디언트조차 제대로 적용하지 못했어요.
[07:31]
이 박스에서 왼쪽으로 삐져나와 있죠.
[07:33]
정말 형편없어요. 버그투성이로 보이고
[07:35]
잘못 생성되었습니다. 여기
[07:37]
Cursor에서 생성한 또 다른 예시인데,
[07:38]
이전 것만큼 나쁘지는 않지만
[07:40]
여전히 이전만큼 좋지 않아요.
[07:42]
추론 단계에서
[07:44]
그라디언트를 사용해야 한다고 말하는 것까지 봤는데
[07:46]
실제로는 적용하지 않았어요. 대신
[07:48]
이런 걸 얻었죠. 이 모든 것은
[07:50]
여기서 시작되었는데,
[07:52]
이것이 원본이었어요. 제가
[07:54]
다양한 모델들과
[07:55]
모델의 다양한 버전들에게 건네주며
[07:57]
'이거 더 좋게 만들어줘'라고 했죠.
[07:59]
기본적으로 생성과 편집
[08:02]
플로우를 개선하고 더 나은 사용자
[08:04]
경험을 만들어달라고 했는데
[08:07]
무슨 이유에서인지
[08:08]
제가 처음 테스트했을 때보다 더 나빠졌어요.
[08:10]
심지어 Horizon보다도 나쁘죠. 여러분도
[08:11]
그때 제가 만든 생성물들을 봤잖아요.
[08:13]
정말 놀라웠었는데
[08:14]
지금 무슨 일이 일어나고 있는지 모르겠어요.
[08:15]
특히 Horizon 모델들은
[08:17]
추론 기능이 꺼져 있었던 것을 고려하면요.
[08:19]
정말, 이 생성물들 중 일부는 너무 형편없었어요.
[08:21]
그냥 무작위로 그라디언트를 여기저기 던져놓기 시작했는데
[08:24]
겹치고 제가 이전에 사용했던
[08:26]
모델과 전혀 다르게 보여요.
[08:27]
이전에 경험했던 것은
[08:29]
절대 이런 쓰레기같은 것을 생성하지 않았을 거예요.
[08:31]
훨씬 훨씬 나았거든요. 정말
[08:34]
충격적이었어요. 그래서 제가
[08:36]
그 영상을 만든 거예요. 여러분께
[08:38]
제 솔직한 반응을 보여드리려고 했어요.
[08:40]
오늘 GPT-5를 사용하면서 불만족스러웠거든요.
[08:42]
같은 작업들을 Claude에게
[08:43]
던져봤어요. Opus 4로 얻은 결과예요.
[08:47]
정말 형편없어요. 편집 텍스트조차
[08:49]
볼 수 없어요. 대비를
[08:51]
망쳐놨거든요. 완전 쓰레기예요.
[08:53]
상단 네비게이션을 제거하라고 했는데
[08:55]
하지 않았어요. 오히려 더 크고 번쩍거리게 만들었죠.
[08:58]
텍스트가 드롭다운 박스에서
[09:00]
넘쳐나와요. 제가 추가하라고 했던 건데
[09:03]
클릭하면 움직이기까지 해요.
[09:04]
Opus가 GPT-5만큼 좋다거나
[09:06]
더 낫다고 말한다면 진지하게 받아들일 수 없어요.
[09:08]
하지만 동시에
[09:11]
GPT-5 경험이 지금처럼 나쁘다면
[09:13]
많은 툴에서, 제가
[09:14]
과했다고 느끼시는 이유를 이해해요.
[09:16]
여러분께 약속드리는데, 제가
[09:18]
경험했던 것은 지금 이것보다 훨씬
[09:20]
나아서 제 영상이 이해가 되는 수준이었어요.
[09:22]
여러분 모두가 곧 그것을 보실 수 있기를 바라요.
[09:25]
몇 분은 이미 보셨거든요. 다양한
[09:26]
방법과 도구들, 여러 이유로
[09:28]
제가 본 것을 볼 수 있었던
[09:30]
사람들의 수에 놀랐어요.
[09:32]
대부분의 여러분이 보지 못하셔서 안타깝고
[09:35]
그 책임은 대부분 OpenAI에 있어요.
[09:37]
여기서 많은 것들을 망쳤거든요.
[09:40]
하지만 이런 것들 중 어느 것도
[09:41]
제가 저지른 가장 큰 실수는 아니에요.
[09:44]
가장 큰 것은 단연
[09:45]
이 특정 영상이에요. 영상 자체가
[09:47]
실수라는 게 아니라, 저는 진심으로
[09:49]
Anthropic이 이상한 분위기를 가지고 있다고 믿어요.
[09:51]
그들과 너무 많은 나쁘고 의심스러운
[09:52]
상호작용을 했는데, 그 중 많은 것들을
[09:54]
2월에 이 비디오 컨셉을 생각해냈는데
[09:55]
T3 Chat과 처음 작업을 시도하면서
[09:57]
그들의 비즈니스 관행에 정말 질려버렸거든요.
[09:59]
이 비디오에서 말한 모든 단어를 지지하지만
[10:01]
언제 발행했는지는 변명의 여지가 없죠.
[10:02]
발행 시점이 OpenAI를 변호하려는 의도는
[10:05]
전혀 아니었어요.
[10:07]
그냥 제 콘텐츠 스케줄의 특성상
[10:10]
그런 거였죠. 휴가 중이었고
[10:11]
몇 주 전에 찍어둔 영상들이
[10:14]
여러 개 있어서
[10:15]
평소처럼 올리고 있었던 거예요.
[10:17]
이 영상은 예약이 되어 있어서
[10:19]
그냥 올린 거죠. GPT 출시에 대해
[10:21]
팀에게 말하지 않았기 때문에
[10:22]
특별히 의도된 스케줄링은 아니었어요.
[10:24]
그냥 그 시간에 나갈
[10:26]
예정된 영상이었죠. 그런데
[10:28]
GPT-5가 출시되고 나서
[10:30]
다음으로 예약된 게 이 영상이었던 거예요.
[10:32]
왜 그게 안 좋아 보일지는 이해해요.
[10:34]
중간에 영상이 하나 있긴 했지만
[10:36]
여전히 충분히 가까워서
[10:38]
사람들이 나쁘게 받아들인 거죠.
[10:41]
이해합니다. 하지만 동시에
[10:43]
이 영상은 오래 전부터 계획했던 거예요.
[10:45]
6월 10일, 2달 전에 Notion의
[10:49]
영상 아이디어 트래커에 추가했어요.
[10:51]
2월부터 계속 생각하고 있었거든요.
[10:53]
OpenAI가 돈을 줘서
[10:55]
갑자기 결정한 게 아니라
[10:57]
타이밍이 안 좋았던 거고
[10:59]
그 부분은 제가 책임지겠습니다.
[11:02]
하지만 그 영상에서
[11:03]
한 말 한 마디 한 마디 다 지지해요.
[11:05]
Anthropic은 정말 이상한 분위기가 있고
[11:07]
제 경험상 그 분위기가
[11:09]
OpenAI보다 훨씬 더 이상해요.
[11:11]
사용량 제한을 늘리는 것조차
[11:13]
이를 뽑는 것 같아요. 제 경험상
[11:15]
유쾌하지 않은 회사예요
[11:16]
특히 우리가 이야기하는 다른 회사들과
[11:19]
비교해보면 말이죠. 그래도
[11:21]
저처럼 이런 반발을 받고 있는 사람이
[11:23]
저뿐만이 아니고, 더 많은 경험을 하면서
[11:25]
생각을 바꾸고 있는 것도 사실이에요.
[11:27]
원래 영상에서 GPT-5가 대화하기에
[11:30]
좋은 모델이 아니라고 했는데
[11:33]
아직도 어느 정도는 그렇게 생각해요.
[11:36]
GPT-5 채팅 모델은 사실 모델이 아니라
[11:37]
API로 접근할 수 있는
[11:38]
다른 파라미터 세트인데, 제가 사용했던
[11:41]
버전보다는 나아졌지만
[11:42]
여전히 대화나 재미있는 상호작용에는
[11:46]
그리 좋지 않았어요. 클레어는
[11:47]
그 영상에 저와 함께 나온
[11:49]
다섯 명 중 한 명이었는데
[11:51]
그때 이야기할 때도 똑같이 말했고
[11:53]
그 클립도 영상에 들어갔던 것 같아요.
[11:54]
정말 로봇 같은 모델이에요
[11:56]
시키는 대로 하죠. 그게
[11:58]
우리가 경험한 마법이었지만
[12:00]
대화하기에는 그리 친근하지 않았어요.
[12:02]
그래서 클레어가 자신의 제품에
[12:04]
적용했을 때도 실망했죠.
[12:06]
사용자들을 대상으로 조사했을 때
[12:08]
더 느리고, 말이 많고,
[12:10]
전반적으로 덜 사랑받는다는
[12:11]
반응이었어요. 그래서 결국
[12:14]
자신들의 제품에는 GPT-4.1으로
[12:15]
다시 돌아갔죠. 왜냐하면 그들의 제품은
[12:18]
카피라이팅이나 프레젠테이션,
[12:20]
대화형 출력에 훨씬 더 초점을 맞추거든요.
[12:22]
클레어가 돈을 받았는지는 확실히 말할 수 없어요.
[12:23]
달러였고, 나는 그것을 거절했습니다. 하지만
[12:25]
우리 둘 다 여기서 OpenAI에게 좋게 보이거나
[12:27]
아부할 동기는 충분합니다.
[12:29]
하지만 우리는 그렇게 하지 않았습니다. 솔직히
[12:33]
내 이전 영상들을 보고
[12:35]
"와, OpenAI가 이걸 위해 돈을 줬구나"라고
[12:37]
생각한 사람이 있다는 게 믿기지 않습니다.
[12:39]
제가 그 영상들에서 말한 것 중에는
[12:41]
분명히 OpenAI가 저에게
[12:43]
말해달라고 하지 않았을 것들이 너무 많거든요.
[12:45]
지금도 제가 이런 모델들이
[12:47]
제가 테스트했을 때만큼
[12:48]
성능을 보여주지 못하고 있다고 불만을 게시했을 때,
[12:50]
모델이 예전만큼 좋지 않다고
[12:53]
직접적으로 말했을 때,
[12:54]
OpenAI에 대해 제가 할 수 있는
[12:56]
가장 치명적인 말 중 하나였죠.
[12:58]
그런데 즉각적인 반응이
[13:02]
"OpenAI 찬양하는 거 안 지치냐?"입니다.
[13:03]
대체 제가 뭘 어떻게 하라는 겁니까?
[13:05]
모르겠습니다. 여기서 뭔가 다른 걸
[13:07]
시도했다는 게 좀 안타깝네요.
[13:10]
세부사항을 알기 전에
[13:11]
그냥 진솔하고 자연스러운
[13:12]
반응을 보여주려고 했습니다.
[13:14]
비용이 얼마나 드는지 몰랐고,
[13:15]
미니 모델들이 나올지도 몰랐으며,
[13:17]
사고와 추론 매개변수가
[13:19]
어떻게 작동할지도 몰랐습니다.
[13:21]
그리고 확실히 chatgpt.com 버전이
[13:22]
이렇게 심하게 안 좋을 줄은 몰랐죠.
[13:24]
T3 Chat을 추천하기 쉬울 정도로 말이에요.
[13:27]
모델을 실제로 경험할 수 있도록요.
[13:29]
그런 것들은 전혀 몰랐습니다.
[13:30]
만약 정말 그 영상으로
[13:32]
돈을 벌고 싶었다면,
[13:34]
아주 다르게 할 수 있었을 겁니다.
[13:36]
T3 Chat을 강하게 홍보할 수도 있었고,
[13:38]
스폰서를 가득 채울 수도 있었죠.
[13:41]
대신, 저는 손실을 감수했습니다.
[13:43]
그 영상은 아마 몇천 달러의
[13:45]
손실을 입혔을 겁니다.
[13:47]
그래서 저를 유료 홍보맨이라고
[13:49]
부르시고 싶으시면 그러세요.
[13:51]
그 말이 어디서 나오는지는 이해합니다.
[13:53]
제가 여기서 게시 순서를
[13:55]
잘못 선택한 실수에서 나온 거죠.
[13:57]
그리고 런칭 날에
[13:58]
더 많이 사용해보지 못해서
[14:01]
다른 반응을 보이지 못한 것도 있고요.
[14:02]
제가 경험한 대로 공유했고
[14:05]
세상의 나머지 사람들이
[14:07]
어떻게 반응했는지 보기 전에 게시했기 때문입니다.
[14:09]
여기서 제가 배운 교훈이 있다면,
[14:12]
진솔하게 굴지 말아야 한다는 것입니다.
[14:14]
진정으로 그렇게 느껴집니다.
[14:15]
저는 정기적으로 진솔하고 자연스럽게
[14:18]
제가 느끼는 방식으로
[14:19]
행동한다는 이유로 처벌받고 있습니다.
[14:21]
제가 그냥 제 감정을 솔직히 말할 때마다
[14:23]
기다리고 다른 사람들이 뭐라고 하는지 보고
[14:24]
그들과 함께 미소 짓는 것보다 훨씬 더 욕을 먹습니다.
[14:27]
만약 제가 나와서
[14:30]
"네, 모델이 구립니다"라고 말한 유일한 사람이었다면
[14:32]
얼마나 많은 영향력을 얻었을지 이해하시나요?
[14:34]
첫날에 "네, 저는 조기 액세스가 있었습니다.
[14:36]
구립니다"라고 했다면
[14:38]
제가 말한 것들로 얻은 것보다
[14:40]
훨씬 더 많이 얻었을 겁니다.
[14:42]
하지만 제가 말한 것은 제가 믿는 것이었습니다.
[14:45]
그리고 저는 여전히 좋은 모델이
[14:47]
그 안에 있다고 생각합니다.
[14:49]
진심으로 그렇게 믿습니다.
[14:50]
API를 통해 충분히 사용해봤고,
[14:52]
chatgpt.com을 바꾸었죠. 공정하게 말하자면,
[14:54]
저는 ChatGPT 사이트를 까내리는 걸 좋아해요.
[14:56]
그게 T3 Chat이 존재하는 큰 이유 중 하나죠.
[14:58]
하지만 거기서 이 모델로 경험하는 것은
[15:00]
정말 좋지 않아요. 그리고
[15:03]
뭔가 이상하다는 걸 알았죠.
[15:05]
사용자들로부터 점점 더 많은 피드백을 받았거든요.
[15:08]
T3 Chat이 새 모델과 함께
[15:09]
ChatGPT 웹사이트보다 훨씬 나은 경험을
[15:11]
제공한다는 피드백이었어요. 그게 바로
[15:14]
'아, 젠장 뭔가 문제가 있구나' 하는
[15:16]
순간이었습니다. 그때부터
[15:17]
더 적극적으로 조사해보기로 했죠.
[15:19]
그리고 지금 실제로 시간을 내서
[15:20]
더 많이 테스트해보니, 확실히 다르게 느껴져요.
[15:22]
더 나빠진 것 같아요.
[15:24]
제가 첫 번째 영상에서
[15:25]
이야기했던 것과는 다르게 느껴져요.
[15:27]
그래서 저에게 화가 나셨다면, 이해하고
[15:29]
죄송합니다. 저는 제가 가진 것을
[15:32]
보고한 것뿐이에요. 그리고 제가 가진 것은
[15:35]
정말 놀라웠어요. 그건 확신해요.
[15:37]
정말로 그 능력에 깜짝 놀랐거든요.
[15:39]
그리고 지난 며칠 동안도
[15:41]
프롬프트를 가져와서
[15:43]
GPT-5가 해결할 수 있는지 보면서,
[15:44]
때로는 해결했고, 때로는 못했어요.
[15:45]
못 푼 것들을 가져다가
[15:47]
Opus에 넘겨주면, 즉시
[15:49]
더 멍청하고 더 큰 실수를 하면서
[15:51]
헤매는 걸 보게 되죠. 게다가
[15:52]
그 과정에서 토큰도 훨씬 많이 쓰고요.
[15:54]
GPT-5가 실패한 질문을 Opus가
[15:57]
답한 경우는 단 한 번도 없었어요.
[15:59]
분명 그런 경우들이 많이 있겠지만,
[16:02]
제가 실제로 이런 것들을 사용한
[16:04]
경험으로는, 아직까지 GPT-5가
[16:06]
답하지 못했는데 Opus가 답한
[16:09]
경우는 단 한 번도 찾지 못했어요.
[16:11]
하지만 그 반대의 경우는 많이 찾았죠.
[16:13]
솔직히 말해서, 저는 Opus 모델을
[16:15]
별로 좋아하지 않아요. 그냥
[16:17]
Sonnet 사용하는 것보다
[16:19]
충분히 나을 만큼 좋은 경우가 드물어요.
[16:21]
Sonnet은 여전히 좋은 모델이지만,
[16:23]
지금은 성능 대비 비쌉니다.
[16:24]
오늘 GPT-5 High와 Sonnet, Opus를
[16:29]
비교 테스트하면서
[16:31]
전반적으로 도구들의 품질에
[16:33]
만족하지 못하고 있어요. 지금은
[16:35]
모두 다 좀 별로인 것 같아요.
[16:37]
이게 Cursor가 내부자 채널에
[16:38]
문제가 있는 업데이트를 푸시해서
[16:40]
뭔가 망가뜨린 건지, 아니면
[16:42]
제가 생각하지 못한
[16:44]
다른 숨겨진 문제가 있는 건지,
[16:46]
모델이 바보가 된 건지
[16:48]
모르겠어요. 뭐가 문제인지
[16:50]
알 수가 없어요. 저는
[16:51]
내부자가 아니거든요. 제가 아는 건
[16:53]
OpenAI와 Cursor와 나눈 대화에서
[16:56]
둘 다 적극적으로
[16:58]
이 문제를 해결하려고 노력하고 있다는 것뿐이에요.
[17:01]
하지만 지금 여러분이 겪고 있는 경험은
[17:03]
제가 겪었던 것과 다릅니다.
[17:05]
그에 대해 죄송해요.
[17:06]
더 잘 계획했으면 좋았을 텐데요.
[17:08]
이걸 더 철저히 테스트할 시간이
[17:09]
있었으면 좋았을 텐데요. 여러분이
[17:11]
겪게 될 모델과 경험이
[17:13]
제가 조기 액세스로 경험했고
[17:15]
공개한 것과 다를 때를 대비한
[17:17]
백업 계획이 있었으면 좋았을 텐데요.
[17:19]
경험하고 있는 것과 같았습니다. OpenAI가 여기서 망친 것들에 대해 이야기해야 합니다
[17:21]
몇 가지가 있거든요. 단연코 가장 큰 문제는
[17:22]
오토 라우터라고 말하겠습니다. 아직 익숙하지 않으시다면
[17:25]
제 두 번째 영상에서 이것에 대해 이야기했습니다
[17:28]
모델을 사용할 때
[17:29]
저는 다양한 이름으로 GPT-5에 접근할 수 있었습니다
[17:31]
reasoning 모델을 다양한 이름으로 말이죠
[17:34]
그 중 하나인 Nectarine이 제가
[17:36]
대부분의 시간에 사용했던 모델이었습니다
[17:38]
마지막 순간에 5 mini와 nano도
[17:40]
다른 이름으로 얻었습니다
[17:43]
하지만 테스트할 시간이 거의 없었습니다
[17:45]
벤치마크를 한두 번 정도 돌려봤을 뿐입니다
[17:47]
그런데 5 Mini에는 정말 놀랐습니다
[17:49]
언젠가는 그것만으로 영상을 만들 수도 있을 것 같아요
[17:50]
가격 대비 정말 좋은 모델입니다
[17:52]
하지만 우리가 제대로 하지 못한 것은
[17:54]
오토 라우터였습니다. 저는
[17:56]
ChatGPT 사이트를 사용하지 않았기 때문에
[17:59]
실제로 그것에 부딪힐 일이 없었죠
[18:01]
오토 라우터가 하는 일은
[18:03]
요청을 받아서 살펴본 다음
[18:04]
그 요청의 내용을 바탕으로 어디로 보낼지 결정하는 것입니다
[18:07]
따라서 '깊이 생각해라'라고 말하거나
[18:09]
어려운 수학 문제를 주면
[18:12]
reasoning을 켜고 필요에 따라
[18:15]
reasoning의 양을 늘리거나 줄입니다
[18:17]
이것이 의미하는 바는
[18:19]
대부분의 사용자들이 기본적으로
[18:21]
요청을 할 때 가장 멍청한 버전의
[18:23]
GPT-5를 받고 있다는 것입니다
[18:24]
특히 무료 사용자들의 경우에는 더욱 그렇죠
[18:27]
OpenAI가 이 모델에 대해
[18:29]
무료 사용량을 매우 관대하게 제공했기 때문입니다
[18:31]
오토 라우터는 비용과 속도 대비
[18:33]
경험의 품질을 최대화하기 위해 만들어졌습니다
[18:35]
왜냐하면 한동안 reasoning을 하면
[18:37]
잠시 동안 아무것도 보이지 않고
[18:40]
ChatGPT의 평균 사용자는
[18:41]
거의 독점적으로 4.0을 사용해왔기 때문입니다
[18:43]
제 생각에는 약 30%의 사용자만이
[18:46]
OpenAI 유료 서비스에서
[18:48]
reasoning 모델 중 하나라도 사용해본 적이 있다고 합니다
[18:50]
정말 미친 일이죠
[18:52]
생각해보세요. ChatGPT에 월 20달러를 지불하는
[18:55]
사용자의 30%도 안 되는 사람들이
[18:57]
더 똑똑한 모델들을 사용합니다
[19:00]
그들은 그냥 계속 4.0을 사용하죠
[19:02]
그 때문에 그들은 즉시 응답을 받는 것에
[19:04]
익숙해져 있습니다
[19:06]
따라서 4.0이 reasoning 모델로 대체되면
[19:08]
더 이상 그런 경험을 할 수 없게 됩니다
[19:10]
그래서 그들은 두 가지를 했습니다
[19:12]
첫 번째는 프롬프트와 요청의 복잡성에 따라
[19:14]
모델이 reasoning을 하거나 하지 않도록 만든 것입니다
[19:15]
다른 하나는 새로운 빠른 답변 버튼입니다
[19:17]
클릭하면 reasoning을 끄고
[19:19]
즉시 답변을 내놓습니다
[19:20]
이것들은 핵입니다
[19:22]
그리고 이런 핵들은 현재 좋은 반응을 얻지 못하고 있는 것 같고
[19:24]
사람들이 우리가 모델로 보고 있는 것을 보지 못하고 있습니다
[19:27]
그리고 아마도 더 큰 문제는
[19:29]
다른 모든 모델들을 숨긴 것입니다
[19:31]
그들이 이런 짓을 할 줄은 몰랐습니다
[19:34]
출시 당시에 그들이 다른 모든 모델을 폐기하고
[19:37]
UI에서 숨기고, 무료 사용자들에게는
[19:38]
완전히 비활성화하고
[19:40]
당시에는 플러스 사용자들에게도 그렇게 할 줄은
[19:42]
전혀 몰랐습니다
[19:44]
그럴 수 있다고 상상조차 할 수 없었습니다
[19:47]
정말로 그럴 거라고 믿지 않았습니다
[19:49]
진심으로 그런 일이 일어날 거라고
[19:51]
생각하지 못했습니다
[19:52]
그런 경우라는 걸 이해할 수 있습니다. 그들이
[19:54]
이렇게 한 이유를 약간은 공감할 수 있어요.
[19:56]
왜 그랬는지 알 것 같거든요.
[19:58]
그 모델이 문제가 많기 때문입니다. 실행하기에
[20:00]
비용이 많이 들어요. 필요 이상으로
[20:01]
크기 때문입니다. 출력 품질도
[20:03]
여러 다른 이유로 좋지 않습니다.
[20:05]
또한 사람들을 이상한 상황으로
[20:07]
몰아넣는 나쁜 습관이 있어요. ChatGPT가 유발하는
[20:10]
정신적 혼란 상태 말입니다. 아부하는 성향이
[20:12]
심하다고 가볍게 표현하는 거죠. 전 세계 사람들이
[20:14]
사용하기에는 좋지 않은 모델입니다.
[20:17]
그래서 OpenAI가 급하게 그 모델에서
[20:19]
벗어나려고 하면서 점점 복잡해지는
[20:21]
네이밍 체계, 모델 옵션들을
[20:24]
단순화하려고 했던 이유를 이해할 수 있습니다.
[20:26]
그들은 모델이 사용자를 위해 모든 걸
[20:28]
알아서 처리해서, 질문만 하면 적절한
[20:30]
결과를 얻을 수 있게 하고 싶었어요.
[20:33]
하지만 실패했습니다. 솔직히 말해서
[20:35]
전혀 성공하지 못했어요. 사람들이
[20:37]
겪고 있는 경험이 좋지 않습니다. 그 결과로
[20:39]
T3 Chat에서 가입자가 급증했어요.
[20:41]
전혀 예상하지 못했습니다. OpenAI가
[20:43]
우리에게 이런 기회를 그냥
[20:45]
줄 거라고는 생각도 못했어요.
[20:47]
그런데 그렇게 됐네요. 불만을 표하지는
[20:49]
않겠지만, 이런 식으로 될 거라고는
[20:51]
정말 예상할 수 없었습니다.
[20:54]
다른 모든 모델들을 없애면 안 되는 건데요.
[20:55]
그 이후로 되돌린 것 같습니다.
[20:56]
샘이 자신의 후회와 실수에 대해
[20:58]
많은 글을 올리고 있어요.
[21:00]
자동 라우터는 전반적으로 재앙이었습니다.
[21:02]
그들이 확실히 망친 또 다른 부분은
[21:04]
GPT-5의 다양한 버전들에 대한
[21:06]
명확성입니다. 사실 다른 버전이라고 할 수도
[21:08]
없어요. 모델을 쿼리할 때
[21:09]
사용하는 다른 매개변수들이에요.
[21:10]
모델에게 줄 수 있는 다양한 수준의
[21:12]
파워가 있는데, 이것이 모델이 허용되는
[21:13]
사고의 양이고, 이것이 모델을
[21:15]
완전히 다르게 작동하게 만듭니다.
[21:16]
그리고 빠른 버전이 있는데, 이는
[21:18]
트래픽이 우선 처리되는 것인데,
[21:20]
제가 테스트할 때는 그런 게 없었어요.
[21:22]
우리 모두 빠른 버전을 사용했거든요.
[21:23]
사용하는 사람이 소수였기 때문이죠.
[21:25]
네, 가볍게 말해서 그들의 실수였습니다.
[21:29]
저는 아직도 버전들 간의 차이가 뭔지
[21:31]
모르겠고, High Fast가 제가 이전에 사용하던
[21:35]
버전인지도 확실하지 않습니다.
[21:36]
전혀 명확하지 않아요. Mini와 Nano가
[21:39]
뭔지는 알지만, 이런 다양한 설정에
[21:40]
기반한 5의 다른 특성들은
[21:43]
잘 이해하지 못하겠습니다.
[21:45]
제가 아는 것은 이전에 사용해봤던
[21:46]
그 하나의 엔드포인트가
[21:49]
정말, 정말 좋았다는 것이고,
[21:50]
지금 사용하고 있는 버전들은
[21:52]
예전만큼 좋지 않다는 느낌이에요.
[21:54]
최소한 Cursor에서는 예전만큼
[21:56]
좋지 않게 느껴집니다. 일부는
[21:57]
Cursor의 문제일 수도 있고,
[21:59]
일부는 아마도 OpenAI의 문제일 거예요.
[22:00]
지금으로선 알 수 없지만,
[22:02]
네 번째 문제를 해결했다면
[22:03]
좋았을 텐데요. 훨씬 쉬웠을 거예요.
[22:05]
그들에게는 좋은 코드 도구가 없어요.
[22:06]
새로운 Claude 모델이 나온다면,
[22:08]
어떤 이유로 Cursor가 지원하지 않더라도
[22:09]
여전히 그 모델이 얼마나 좋은지
[22:11]
테스트할 수 있습니다.
[22:13]
클라우드 코드를 사용해서 코드를 테스트할 방법이 없습니다.
[22:15]
Anthropic이 새로운 버전의
[22:17]
클라우드 모델을 클라우드 코드 지원 없이
[22:19]
출시할 리는 없죠. 현 시점에서는요. OpenAI도
[22:21]
Codex로 같은 일을 했습니다. 차이점은
[22:22]
Codex는 그냥 별로라는 거죠. 먼저
[22:26]
어떤 버전의 Codex인지 물어봐야 해요
[22:27]
왜냐하면 지금 다섯 개나 있거든요.
[22:29]
중요한 건 두 개인데, 백그라운드
[22:31]
에이전트 Devon의 경쟁자로, Slack에서
[22:33]
실행하면 VM을 띄우고
[22:35]
코드를 대신 작성해주는 거죠.
[22:37]
그건 별로 신경 안 써요.
[22:39]
제가 말하는 건 Codex CLI인데,
[22:40]
클라우드 코드의 대안이죠. 오픈소스
[22:42]
GPL 라이센스예요. 멋진 프로젝트죠.
[22:44]
만드는 분들이 정말 자랑스러워요.
[22:46]
그 중 몇 분과는 친구이기도 하고요. 하지만
[22:48]
클라우드 코드만큼 좋지는 않아요
[22:50]
심지어 다른 오픈소스 옵션들인
[22:51]
Open Code나 Aider보다도 못해요. 그리고 이 모든
[22:53]
도구들은 GPT-5를 최대한 활용하려면
[22:55]
구현상의 변경이 필요해요. 제가 들은
[22:58]
이야기들이 얼마나 많은지 말할 수 없을 정도예요
[23:00]
여러 회사들이 만드는 것들 말이에요
[23:02]
바이브 코딩 앱이나 CLI 도구들을 만들면서
[23:04]
Anthropic 모델들이 이상한 짓을
[23:06]
하지 못하게 하려고 넣어야 했던 핵들 말이에요
[23:08]
예를 들어, Convex의 Chef에서,
[23:11]
Convex로 뭔가를 만드는
[23:12]
바이브 코딩 앱에서 안정적으로 만들기 위해
[23:14]
했던 일들 중 상당수는 여러 파일에 대한
[23:17]
쓰기 권한을 잠그는 것이었어요. 모델이
[23:19]
파일에 쓰도록 두고 나서
[23:21]
바로 작성한 내용을 되돌리는 거죠
[23:22]
제대로 하지 못할 거고
[23:24]
건드리지 말아야 할 것들을 고집스럽게
[23:25]
건드릴 거거든요. 시스템 프롬프트에
[23:27]
건드리지 말라고 넣어도
[23:28]
건드리죠. 이 지점에서 상황이
[23:29]
GPT-5와 함께 바뀝니다. 지시사항을 따르고
[23:32]
정말 놀랍도록 잘 따라요. 이건
[23:35]
OpenAI가 새로운 모델들을 출시할 때
[23:37]
충분히 명확하게 알리지 않았어요.
[23:39]
그들이 사전에 Cursor와
[23:40]
긴밀하게 협력해야 했다는 사실은
[23:43]
두 시스템이 잘 함께 작동하도록 하기 위해서였는데
[23:45]
이런 정보는 아마 공유되었어야
[23:47]
했을 거예요. 새로운 모델이 나오면
[23:48]
단순히 스트링을 바꾸는 것만으론
[23:50]
충분하지 않아요. 특히
[23:52]
GPT-5처럼 근본적으로
[23:54]
다르게 동작하는 변화에서는요. 이상한 방향으로
[23:57]
빠지거나 이상한 토끼굴로
[23:58]
파고들지 않는다는 사실은 거의 모든 다른
[24:00]
모델들이 하는 방식과 달라서 프롬프팅을
[24:02]
다르게 해야 한다는 뜻이에요. 시스템을
[24:04]
다르게 설계해야 한다는 뜻이고. 도구를
[24:05]
다르게 사용해야 한다는 뜻이에요.
[24:06]
많은 것들이 달라진다는 뜻인데
[24:08]
이런 것들이 사전에 미리
[24:10]
처리되지 않았어요. 솔직히 말해서
[24:12]
이건 OpenAI가 만든 모델 중에서
[24:14]
이런 도구들에 통합할 가치가 있는
[24:16]
첫 번째 모델이거든요. 지금까지는
[24:18]
Anthropic 모델들이 단연 최고의 선택이었어요
[24:20]
에이전틱 작업에서는 도구 호출에서
[24:21]
최고였거든요. GPT-5는 그 격차를
[24:23]
좁혔을 뿐만 아니라 실제로 여러 면에서
[24:26]
훨씬 좋고 상당히 저렴해요.
[24:28]
문제는 사람들이 그렇게
[24:29]
생각하지 않는다는 거예요. Claude 4 Sonnet이
[24:32]
새 모델이 나오면, 그들은 도구 안의 문자열을 바꾸기만 하면
[24:33]
갑자기 더 좋아집니다. 만약 그 동일한
[24:35]
문자열을 anthropic/claude-sonnet에서
[24:37]
OpenAI/GPT-5로 바꾼다고 해서
[24:40]
OpenAI/GPT-5로 바꾼다고 해서
[24:43]
즉시 더 좋은 경험을 갖게 되지는 않습니다
[24:44]
왜냐하면 당신은 그 도구에
[24:46]
Sonnet 모델을 올바른 방향으로 이끌기 위한
[24:48]
기능들을 구축해놓았기 때문입니다.
[24:49]
Cursor를 사용해봤다면 이미 보셨을 겁니다.
[24:51]
Cursor가 Sonnet 모델과 함께 동작하는 방식과
[24:52]
GPT-5와 함께 동작하는 방식이
[24:54]
완전히 다릅니다.
[24:56]
그들이 GPT-5가 잘 작동하도록 하기 위해
[24:57]
내부적으로 완전히 새로운 모든 것을 구축했다는 게 분명합니다.
[25:00]
동시에 Cursor 직원들은 모두
[25:02]
GPT-5가 현재 에디터에서 사용하기에
[25:04]
가장 좋아하는 모델이라고 말해왔습니다.
[25:05]
그런데 분명히 뭔가 잘못되고 있습니다.
[25:07]
그들이 그렇게 말했고, 지금도 그렇게 말하는데
[25:09]
경험이 퇴보했다면
[25:10]
그들이 해결하고 있을 겁니다.
[25:12]
실제로 지금 제 휴대폰에 불이 들어오는 걸 보고 있는데
[25:14]
이 문제를 해결하고 있는
[25:15]
Cursor 직원이 연락해오고 있습니다.
[25:17]
제가 목록에 적어둔 건 이게 전부인 것 같습니다.
[25:19]
저는 그냥 여러분께 여기서 무엇이 잘못되었는지에 대한
[25:21]
제 솔직한 견해를 말씀드리고 싶었습니다.
[25:23]
OpenAI가 출시를 망쳤다고 생각합니다.
[25:25]
그들이 ChatGPT 사이트에서 한 일들은
[25:26]
개탄스럽고 사람들을 매우 매우
[25:28]
우려하게 만들었는데, 그럴 만한
[25:30]
이유가 있습니다.
[25:32]
지금 Cursor에서 겪고 있는 경험은
[25:34]
제가 이전에 가졌던 경험만큼
[25:36]
좋지 않습니다.
[25:37]
목요일부터 일요일까지는 제가 가졌던 것과
[25:39]
비슷했을 가능성이 있지만, 저는 휴가 중이어서
[25:42]
알 수 없었습니다.
[25:44]
유료 홍보라는 비난은
[25:46]
터무니없다고 생각합니다. 긍정적인 말을 한 사람들은
[25:49]
긍정적인 경험을 했던 겁니다.
[25:51]
OpenAI는 자신들의 신뢰도를 죽이려 하지 않을 것이고
[25:53]
저 역시 여기 나와서
[25:55]
같은 일을 하지는 않을 겁니다.
[25:56]
여러분이 제가 나와서
[25:58]
모델이 형편없다고 말했다면 얼마나 많은
[25:59]
무료 화제거리를 얻었을지
[26:01]
이해하지 못하는 것 같습니다. 하지만 그렇지 않거든요.
[26:04]
적어도 그렇지 않았어요. 그리고 제가
[26:08]
가장 정직한 길을 택했는데
[26:09]
제가 Vercel과 결별하기 훨씬 전 이후로
[26:11]
받은 것보다 더 많은 비난을 받게 된 건
[26:13]
솔직히 말해서 좀 바보 같은 일입니다.
[26:18]
이 일은 정말 짜증나는데, 한편으로는
[26:19]
받을 자격이 없다고 생각하는 비난을 받아서
[26:22]
실망스럽고 좌절스럽지만,
[26:24]
다른 한편으로는 그것이 어디서 나왔는지
[26:26]
충분히 이해할 수 있습니다.
[26:28]
왜냐하면 그 영상을 보고
[26:29]
기대감을 갖고 시도해봤는데
[26:31]
저와 다른 경험을 했다면
[26:33]
왜 좌절스러워하는지 이해합니다.
[26:34]
그리고 제가 모든 댓글 중에서
[26:36]
OpenAI가 우리에게 의도적으로 다른 모델을 줘서
[26:38]
대중들에게는 더 저렴한 걸 줄 수 있도록
[26:39]
했다는 댓글들을 보기 전에 말씀드리자면,
[26:41]
절대 그럴 리 없습니다. 그런 경우는
[26:43]
절대 없습니다. 제가
[26:45]
충분히 많은 사람들과 이야기해봤기 때문에
[26:47]
모든 쪽에서 무슨 일이 일어나고 있는지에 대해
[26:49]
혼란이 있다고 확신할 수 있습니다.
[26:50]
특히 자동 라우터가
[26:52]
끔찍한 아이디어였고 추천할 만한 상태가
[26:54]
전혀 아니라는 걸 깨달았습니다.
[26:56]
추천할 만한 경로가 아니었어요.
[26:58]
제가 대화를 나눈 대부분의 사람들이
[26:59]
API를 사용하고 있었고 저도 마찬가지였는데
[27:02]
우리 모두의 경험이 정말 좋았거든요
[27:04]
그리고 그런 경험들은 여전히
[27:06]
API를 다른 도구에서 사용하면 확인할 수 있어요.
[27:09]
이번 투명성 시도가
[27:11]
지난번보다는 잘 되길 바라요.
[27:12]
만약 그렇지 않다면, 정말로 사기꾼이 되어야 할 것 같아요
[27:15]
왜냐하면 금전적 타격과
[27:18]
정신적 타격을 감당하는 게
[27:19]
제가 느낀 것에 대한 솔직한 콘텐츠를 만들 때
[27:22]
저와 제 팀이 받는 것이 전혀 가치가 없거든요
[27:24]
그리고 돌아오는 반응이 '당신은 돈받고 하는 거짓말쟁이다'
[27:26]
라는 것이니까요. 저는 지금 솔직하게 말함으로써
[27:29]
말 그대로 수백만 달러를 포기하고 있어요.
[27:31]
그리고 그것 때문에 처벌받는다는 게
[27:33]
정말 엿같다고 느껴져요.
[27:35]
사람들이 화나는 이유는 이해해요.
[27:37]
그냥 화낼 때 머리를 좀 더 써줬으면 좋겠어요.
[27:39]
네, 이 문제에 대해서는 더 이상
[27:41]
할 말이 없는 것 같아요.
[27:42]
그냥
[27:46]
여러분이 제가 솔직하게 있을 수 있게 해주셨으면 해요
[27:48]
왜냐하면 사방에서 솔직하지 말라는
[27:50]
압박을 받는 게 정말 힘들거든요.
[27:52]
저는 이런 회사들의 기회를
[27:53]
거절하고 있어요. 여러분에게 솔직할 수 있도록
[27:55]
그리고 여러분에게 솔직할 수 있도록
[27:57]
모든 증오를 무시하려고 최선을 다하고 있어요.
[27:59]
여러분에게요.
[28:00]
이것은 다시 한번 제가 만든 가장 솔직한
[28:03]
영상 중 하나예요. 그리고 만약
[28:05]
이것이 잘 되지 않는다면
[28:07]
많은 것들을 다시 생각해야 할 거예요. 왜냐하면
[28:09]
스폰서도 붙이지 않았거든요.
[28:11]
아마 직접 편집하고 있을 거예요,
[28:13]
비즈니스에 쓸 수 있는 엄청난 시간을 잃으면서요.
[28:15]
지금 아직 휴가 중이어야 하는데
[28:16]
대신 여기 앉아서
[28:18]
침실에서 제 진실성을 변호하고 있어요
[28:20]
OpenAI가 망쳤다고 설명하려고 노력하면서요.
[28:22]
모르겠어요. 이건
[28:26]
네, 솔직히 말하면 이거 정말 엿같아요.
[28:28]
그리고 여러분이 제가 누구도 속이려 하지 않는다는 걸
[28:31]
보셨으면 좋겠어요.
[28:34]
제 경험을 여러분과
[28:35]
최대한 자연스럽게 공유하려고 노력하고 있어요.
[28:38]
그리고 지금 당장은 돈을 줘도
[28:40]
다르게 할 수 없어요.
[28:42]
하지만 돈을 받은 것처럼
[28:43]
계속 처벌받는다면
[28:46]
진짜로 돈 받고 할 때가
[28:47]
됐을 수도 있어요. 왜냐하면 지금 제가
[28:49]
'이것은 스폰서 섹션입니다'라고 말하지 않으면
[28:51]
스폰서 섹션이 없는 거거든요.
[28:52]
제가 믿지 않는 것을 말하라고
[28:54]
돈을 줘도 할 수 없어요. 제 스폰서조차
[28:56]
제가 실제로 믿고 제 콘텐츠를 보는
[28:58]
대부분의 사람들에게
[28:59]
좋은 선택이라고 생각하는 회사들이에요.
[29:02]
저는 여기서 다르게 하고 있어요.
[29:03]
최대한 솔직할 수 있도록
[29:05]
많은 노력을 기울이고 있어요. 그리고 제 솔직함이
[29:07]
여러분의 경험과
[29:08]
맞지 않는다면, 그냥 그렇게 말씀해 주세요.
[29:12]
여러분이 시도해보고 다른 경험을 했을 때
[29:14]
제가 이렇게 느끼는 게 혼란스럽다고
[29:16]
말씀해 주세요. 그러면
[29:17]
대화를 나눌 수 있으니까요. 하지만 우리 경험이
[29:20]
다를 때 여러분의 결론이
[29:21]
제가 돈받고 하는 앞잡이라는 것이라면
[29:23]
여러분은 대화에 관심이 없는 거예요.
[29:24]
대화를 원하는 게 아니라 그냥 화를 내고 싶은 거죠.
[29:26]
사람들이 왜 화를 내고 싶어하는지 이해해요.
[29:28]
사람들이 이 모델에 대해 말했던 것과
[29:30]
실제로 경험한 것 사이의 괴리가
[29:31]
너무 커서 화가 날 만하다는 걸
[29:33]
충분히 이해할 수 있어요.
[29:34]
하지만 분노가 여러분을 이끌지 않도록 충분히 생각해보세요.
[29:38]
제가 이 모든 일이 일어나기 몇 주 전에 촬영하고
[29:41]
몇 달 전에 계획했던 비디오라는
[29:43]
사실을 받아들여보세요.
[29:45]
GPT-5에 관한 것도 아니고,
[29:47]
OpenAI가 제게 돈을 지불한 것과는
[29:49]
전혀 관련이 없습니다.
[29:51]
제가 빠른 돈벌이를 위해 제 신뢰성을
[29:53]
걸지 않는다는 것을 깨달으세요.
[29:56]
OpenAI가 저를 인수할 미래는
[29:58]
없다는 것도 깨달으세요. 그러면 제 수입의
[30:01]
거대한 원천이자 사업인
[30:02]
유튜브 채널을 잃게 되거든요.
[30:04]
저는 여기서 이런 다양한 것들에 대해
[30:06]
중립적으로 이야기하고 있어요.
[30:08]
제가 OpenAI에 제 의견을
[30:09]
팔 이유가 있는 세상은
[30:11]
존재하지 않아요. 어쨌든
[30:13]
그렇게 비난당하는 세상을 제외하고는요.
[30:16]
자, 여기 있습니다. 제 생각에는
[30:18]
OpenAI가 심하게 망쳤어요.
[30:19]
제가 그들의 급여를 받고 있다면
[30:20]
이런 비디오는 절대 만들지 않았을 거예요.
[30:22]
이 모든 것 후에도, 제가 첫 번째
[30:23]
비디오에서 그 모델을 자폐적이라고
[30:25]
불렀는데도 여전히 제가
[30:28]
부정직하고 돈을 받는 앞잡이라고
[30:29]
생각한다면, 뭐라고 말해야 할지 모르겠어요.
[30:31]
그럼 꺼져버리세요. 여기서 문제는 당신이에요.
[30:33]
당신이 절 그렇게 만들 거예요.
[30:34]
저는 정말 최선을 다하고 있거든요.
[30:36]
정말로요. OpenAI가 다른 회사들보다
[30:38]
저를 더 잘 대해줘서 어느 정도
[30:41]
편향된 게 있나요? 네, 아마도
[30:42]
다른 회사들이 저를 더 잘 대해주겠죠.
[30:45]
하지만 진짜로, 네, 저는 편향적이에요.
[30:47]
그 회사를 좋아하니까요.
[30:48]
그들이 저를 잘 대해주고, 투명하게
[30:50]
대해주고, 제가 좋다고 생각하는 걸 만들었으니까요.
[30:52]
제가 뭘 하길 기대하는 거예요?
[30:55]
모르겠어요. 이제 제 생각을 알려드렸으니
[30:57]
원하는 대로 하세요.
[30:59]
이 비디오 댓글을 보는 게
[31:00]
전혀 기대되지 않아요.
[31:01]
아예 댓글을 꺼버릴지도 모르겠어요.
[31:05]
솔직히 말하면 지금 번아웃되지 않으려고
[31:07]
최선을 다하고 있어요.
[31:10]
그러니, 어떻게 받아들이든 상관없어요.
[31:12]
모델이 나아질 때까지 기다리세요.
[31:14]
그때까지는 앤트로픽 모델에
[31:16]
계속 너무 많은 돈을 지불하세요.
[31:19]
이 모든 게 그냥 별로인 것 같아요.
[31:21]
적어도 제가 어디서 오는지 조금이라도
[31:24]
이해해주시길 바랍니다. 안녕히 가세요.