[00:00]
오늘은 2026년에 어떤 AI
[00:02]
전략이 승리할지 살펴보겠습니다. 정말로
[00:04]
AI를 안전하고 대규모로
[00:06]
구축하는 방법에 대한 두 가지 이론이 있습니다. 두
[00:08]
전략, 두 철학이
[00:10]
2021년부터 갈라지기 시작했고 이제
[00:12]
완전히 다른
[00:14]
회사들과 완전히 다른 제품들을
[00:15]
그리고 점점 더 다른 시장을 만들어냈습니다. 저는
[00:18]
클로드와
[00:20]
챗GPT에 대해 이야기하고 있습니다. 하나의 이론은
[00:22]
배포하면서 배운다고 말합니다. 빠르게 출시하고,
[00:24]
수백만 사용자로부터 피드백을 받고
[00:26]
반복하면 대중이 사실상
[00:28]
안전성을 위한 레드팀이 됩니다. 다른
[00:29]
이론은 배포하기 전에
[00:31]
먼저 이해해야 한다고 말합니다. 먼저
[00:33]
안전하다는 것을 증명해야 합니다.
[00:36]
실험실은 실험실이지, 세상이 아닙니다. OpenAI는 빠른 출시
[00:39]
전략에 베팅했습니다. Anthropic은 신중한 출시
[00:42]
전략에 베팅했습니다. 그리고 2026년 1월까지,
[00:45]
우리는 드디어 각 베팅이
[00:48]
시장에서 무엇을 만들어냈는지 볼 수 있습니다. 그리고 더
[00:49]
중요하게는, 우리는 어떤
[00:51]
전략이 누구에게 승리하고 있는지 보기 시작할 수 있습니다. 그리고 여기가
[00:54]
대부분의 사람들이 놓치는 부분입니다. 이것은
[00:56]
한 회사는 무모하고
[00:58]
다른 회사는 신중하다는 이야기가 아닙니다. 저는 그것이
[01:00]
지나친 단순화라고 생각합니다. 샘 알트만과
[01:03]
다리오 아모데이 모두 안전이 중요하다고 믿습니다.
[01:06]
그들은 단지 근본적으로 다른
[01:07]
이론을 가지고 있습니다. 그것을 어떻게 달성하는지에 대해서 말이죠. 그리고
[01:10]
그 이론들은 그 두
[01:12]
리더들이 누구인지, 어디서 왔는지,
[01:14]
그리고 그들이
[01:17]
AI를 다루기 전에 무엇을 배웠는지로 거슬러 올라갑니다. 2년 동안, 정말로
[01:19]
2023년 말부터 2025년 말까지, 모든 AI
[01:22]
대화는 하나의
[01:24]
질문을 중심으로 구성되었습니다. 어떤 모델이 더 나은가?
[01:27]
벤치마크 비교, 아레나 점수,
[01:29]
분위기 테스트. 이 질문은 두 회사가
[01:31]
똑같은 결승선을 향해 경주하는 것처럼 보였을 때
[01:33]
말이 되었습니다. 하지만
[01:36]
2024년 말 어느 시점에서 길이 갈라졌고
[01:39]
2025년 내내 계속 갈라졌고
[01:41]
그것을 알아내는 데 시간이 좀 걸렸습니다.
[01:43]
2026년 1월까지, 그 차이는
[01:46]
너무 완전해져서 클로드와
[01:49]
챗GPT를 비교하는 것은, 제가 보기에는
[01:52]
병원과 텔레비전
[01:54]
스튜디오 중 어느 것이 더 나은가 물어보는 것과 같습니다. 그들은
[01:57]
둘 다 건물입니다. 둘 다
[01:58]
전기를 사용하지만, 완전히
[02:01]
다른 목적을 제공합니다. 그리고 저는 그것이
[02:02]
점점 더 클로드와 챗
[02:04]
GPT에게도 사실이라고 생각합니다. 여기가 대부분의 사람들이 놓치는 부분입니다. 이
[02:06]
차이는 전략의
[02:09]
우연이 아니었습니다. 시장
[02:12]
포지셔닝의 결과도 아니었습니다. 저는 그것이 이 회사들이
[02:14]
설립된 순간부터 불가피했다고 믿습니다
[02:16]
왜냐하면 그것이 회사 리더들의
[02:18]
DNA에 인코딩되어 있기 때문입니다. 샘
[02:20]
알트만과 다리오 아모데이는 다른 사업 계획을 가진
[02:24]
다른 CEO가 아닙니다.
[02:25]
그들은 진보가 어떻게 작동하는지에 대한
[02:27]
다른 이론을 가진 다른 종류의 사람들이고
[02:29]
가장 중요하게는 인공
[02:30]
지능에서 안전이 어떻게 일어나는지에 대한
[02:32]
다른 이론들을 가지고 있습니다. 그래서 이 두 회사가 왜
[02:35]
이렇게 완전히 갈라지는지
[02:36]
이해하려면, 이 두
[02:38]
남자가 어디서 왔는지 이해해야 합니다. 다리오는
[02:41]
90년대 초 샌프란시스코에서 태어났습니다. 그의
[02:43]
아버지는 이탈리아계 미국인 가죽
[02:45]
장인이었습니다. 그의 어머니는 도서관을 위한 프로젝트
[02:47]
매니저로 일했습니다. 제가 추측하기로는 그것이
[02:49]
제품 관리 이전의 일이었습니다. 장인정신을 중시하는 가정이었죠.
[02:51]
체계적 사고와 세심함을 중요하게 여기는 가정이었습니다.
[02:52]
하지만 아마데이를 정말 특별하게 만든 것은
[02:55]
지식에 대한 그의 태도였습니다. 인터뷰에서
[02:58]
그는 이에 대해 놀랍도록 명확했습니다.
[03:00]
그는 이렇게 말했습니다.
[03:02]
'저는 거의 전적으로 수학과 물리학에만 관심이 있었습니다.
[03:04]
웹사이트를 만드는 일은 전혀 흥미롭지 않았어요.
[03:06]
저는 근본적인 과학적 진실을 발견하는 데
[03:09]
관심이 있었습니다.' 잠시 생각해보세요.
[03:13]
이 사람은 지구상에서 가장 가치 있는
[03:15]
인공지능 회사 중 하나의 CEO입니다.
[03:18]
수많은 사람들이 웹사이트를 만들기 위해
[03:20]
사용하는 제품을 출시한 사람이죠.
[03:23]
그런데 그는 실리콘밸리의 전체 문화,
[03:25]
앱들, 제품들, 스타트업들이
[03:28]
자신에게는 전혀 매력적이지 않았다고 말하고 있습니다.
[03:33]
그는 사람들이 일상적으로 사용하는 것들,
[03:36]
기업 가치 평가를 좌우하는 것들을
[03:38]
만드는 데는 관심이 없었습니다. 아이러니하게도
[03:41]
그는 스타트업의 CEO인데도 말이죠.
[03:43]
그는 사물이 어떻게 작동하는지 이해하는 데 끌렸습니다.
[03:47]
그는 과학자였습니다. 아마데이는 칼텍에서
[03:49]
물리학을 공부하며 시작했고, 학사 학위를
[03:51]
마치기 위해 스탠포드로 편입했습니다.
[03:53]
그 후 프린스턴에서 박사 과정을 밟았습니다.
[03:55]
거기서 그는 미래 연구와 깊은 관련이 있는
[03:57]
분야를 공부했습니다. 신경 회로의 전기생리학을 말이죠.
[04:00]
그는 문자 그대로 생물학적 뉴런이
[04:02]
정보를 어떻게 처리하는지, 뇌가 개별 세포 수준에서
[04:05]
그리고 집단적 행동으로 어떻게 작동하는지 이해하려 했습니다.
[04:09]
하지만 프린스턴에서 비극적인 일이 일어났고
[04:11]
이는 그 이후의 모든 것을 형성했습니다.
[04:14]
그의 아버지가 희귀 질병으로 돌아가신 것입니다.
[04:16]
그리고 불과 4년 후, 의학적 돌파구가
[04:19]
이전에는 치명적이었던 그 질병을
[04:22]
거의 치료 가능한 질병으로 바꿔놓았습니다.
[04:25]
이런 타이밍은 너무나 고통스럽고
[04:28]
만성 질환으로 고통받은 사람이라면 누구나 알 수 있는
[04:31]
경험입니다. 치료법은 잘못된 시점에
[04:34]
존재할 수 있습니다. 치료법이 너무 늦게 올 수 있죠.
[04:37]
이런 경험이 정말로 그에게
[04:39]
무언가를 명확하게 해준 것 같습니다.
[04:41]
그 이후로 우리는 그의 경력에서
[04:44]
과학적 발전과 과학적 지식의 가치에
[04:47]
초점을 맞추는 것을 보아왔습니다. 아마데이는
[04:49]
이후 연구 초점을 이론물리학에서
[04:51]
생물물리학과 전산신경과학으로
[04:53]
인간의 질병을 직접 다루는 연구로 옮겼습니다.
[04:56]
그가 회사를 설립했을 때도
[04:59]
그 철학은 그와 함께했습니다. 사실
[05:01]
저는 이것이 지금도 Anthropic의 구축 접근법과
[05:04]
철학의 많은 부분을 정의한다고 주장하고 싶습니다.
[05:08]
그리고 2026년과 그 이후
[05:10]
그들로부터 기대할 수 있는 많은 것들을 말이죠.
[05:14]
이제 샘 올트먼을 다시 살펴보겠습니다.
[05:16]
이것과 대조해 보죠. 올트먼은 1985년
[05:19]
미주리주 세인트루이스에서 태어났습니다.
[05:21]
그는 8살에 매우 일찍 프로그래밍을 배웠습니다.
[05:23]
스탠포드에서 컴퓨터 과학을 공부했지만
[05:25]
곧바로 자퇴하고 회사를 창업했습니다.
[05:28]
소셜 네트워킹 앱이었지만 실패했죠.
[05:30]
시장이 준비되지 않았고
[05:31]
사용자 유지율이 낮았습니다.
[05:33]
우리 모두 그런 경험이 있죠. 확실히
[05:35]
대부분의 창업자들은 그런 상황에 있어본 적이 있습니다.
[05:36]
실패했습니다. 하지만 알트만은 다른 창업자들과 달랐습니다.
[05:38]
그는 그 실패를
[05:40]
너무 빨리 움직인 것에 대한 경고로
[05:43]
받아들이지 않았습니다.
[05:45]
그는 그것을 반복학습의 교훈으로 경험했습니다.
[05:47]
실패는 단순히 다시 시작할 기회일 뿐입니다.
[05:49]
그는 이번에는 더 똑똑하게 하겠다고 말했습니다.
[05:51]
그래서 그는 Y 컴비네이터에 합류하여
[05:53]
먼저 파트너가 되었고
[05:55]
그다음 YC의 사장이 되었습니다.
[05:58]
Y 컴비네이터는 OpenAI의 접근 방식에
[06:00]
많은 영향을 미쳤습니다.
[06:02]
빠른 출시, 사용자 피드백 수집, 반복.
[06:04]
이것들이 Y 컴비네이터가 가르치는 것이고
[06:07]
OpenAI도 깊이 믿고 있는 것들입니다.
[06:09]
그리고 샘의 리더십 하에
[06:10]
Y 컴비네이터는 실리콘밸리에서
[06:12]
가장 영향력 있는 기관 중 하나가 되었습니다.
[06:14]
에어비앤비, 드롭박스, 레딧을 런칭했습니다.
[06:16]
한 세대의 창업자들을 속도와 규모의
[06:18]
관점에서 생각하도록 훈련시켰습니다.
[06:20]
실리콘밸리 창업에 대한 교과서를
[06:23]
썼다고 볼 수 있습니다.
[06:25]
그래서 알트만이 2015년 OpenAI를 공동 창립하고
[06:27]
나중에 CEO가 되었을 때
[06:30]
그는 그 세계관을 가지고 왔습니다.
[06:32]
빠르게 움직이고, 실험을 출시하고,
[06:34]
시장 점유율을 확보하고, 대규모 사용자로부터
[06:36]
학습하는 것. 차이점이 보이시나요?
[06:38]
다리오는 기업가가 된 과학자입니다.
[06:40]
배포하기 전에 이해하려는 본능,
[06:42]
당신이 구축한 가치가 실제로 주변 세상을
[06:45]
어떻게 형성하는지 이해하려는 본능을 가지고 있습니다.
[06:47]
그리고 샘은 기술 리더가 된 기업가로서
[06:49]
이해하기 위해 배포하려는 본능,
[06:51]
사용자로부터 직접 학습하기 위해
[06:54]
그냥 출시하려는 본능을 가지고 있습니다.
[06:56]
저는 이 두 방향성 중 어느 것이
[06:57]
잘못되었다고 주장하려는 것이 아닙니다.
[06:59]
그건 빈약한 관점이라고 생각합니다.
[07:01]
저는 이들이 진보가 어떻게 일어나는지에 대한
[07:03]
서로 다른 이론이며
[07:05]
근본적으로 다른 조직으로 이어진다고
[07:07]
주장하고 있습니다. 그리고 이 시점에서
[07:10]
이 두 리더와 그들의 서로 다른
[07:11]
철학이 실제로 인공지능의 미래와
[07:14]
우리 모두가 일하는 방식을 형성하고 있습니다.
[07:16]
그들이 생각하는 방식을 이해할 가치가 있고
[07:18]
그 결과로 그들이 회사를 어디로
[07:20]
이끌고 있는지 고려할 가치가 있습니다.
[07:22]
그것이 이 비디오의 마지막에
[07:24]
다룰 내용입니다.
[07:25]
저는 이 리더들이 가진 서로 다른 안전
[07:27]
이론에 대해 잠시 이야기하고 싶습니다.
[07:29]
왜냐하면 이것이 널리 오해되고 있다고
[07:31]
생각하기 때문입니다. 대부분의 AI 보도는
[07:34]
이것을 잘못 이해하고 있습니다.
[07:35]
일반적인 내러티브는 어떤 회사들은
[07:37]
안전에 신경 쓰고 어떤 회사들은
[07:39]
그렇지 않다는 것입니다. 이는 틀렸다고 생각합니다.
[07:41]
OpenAI는 무모해서 빠르게 출시한다는
[07:43]
일반적인 내러티브가 있습니다.
[07:45]
앤트로픽은 신중해서 천천히 출시한다는
[07:47]
일반적인 내러티브가 있습니다.
[07:49]
그런 식으로 읽지 마세요. 샘과 다리오 모두
[07:52]
AI 안전이 매우 중요하다고 믿습니다.
[07:53]
하지만 그들은 그것을 달성하는 방법에 대해
[07:55]
매우 다른 이론을 가지고 있습니다.
[07:58]
샘은 안전이 배포로부터 나온다고 믿습니다.
[08:01]
그리고 이것은 전략으로 포장된
[08:03]
태만이 아닙니다. 이것은 일관된 철학이며
[08:05]
YC 교육에서 직접 나온 것입니다.
[08:08]
YC에서 당신은 차고에서 영원히
[08:09]
이론화할 수 있지만, 실제로는
[08:12]
사용자가 제품과 상호작용하기 전까지는 제품을 이해할 수 없습니다.
[08:14]
시장이 당신에게 가르쳐줍니다.
[08:16]
다른 방법으로는 배울 수 없는 것들을요.
[08:18]
실제 세계의 피드백은
[08:21]
내부 테스트보다
[08:23]
100배, 1000배 더 가치있습니다.
[08:25]
그리고 샘은 이 정확한 프레임워크를
[08:27]
AI 안전성에 적용했습니다.
[08:29]
그의 글에서 매우 명시적으로
[08:31]
인용하자면, "AI 시스템을 안전하게 만드는
[08:33]
최선의 방법은 반복적이고
[08:35]
점진적으로 세상에 출시하여
[08:37]
사회가 적응할 시간을 주고
[08:38]
기술과 함께 공진화하도록 하는 것입니다."
[08:41]
그리고 다보스에서 그는 반복적 개발이
[08:43]
사회가 기술에 익숙해질 수 있게 한다고 말했습니다.
[08:45]
사회와 기술이 공진화하고
[08:48]
매우 긴밀한 피드백 루프를 통해
[08:49]
단계별로 발전해 나가도록 하는 것입니다.
[08:51]
이것은 YC처럼 들립니다.
[08:54]
샘의 프레임워크에서는
[08:55]
공중이 어떤 면에서 테스팅 환경입니다.
[08:57]
그리고 그들이 내부 테스트를
[08:59]
하지 않는다고 말하고 싶지는 않습니다.
[09:00]
OpenAI는 모델을 출시하기 전에
[09:03]
광범위한 내부 테스트를 수행합니다.
[09:04]
그들은 안전 기능과
[09:06]
테스트 작업을 나열한 모델 카드를 제작합니다.
[09:08]
그리고 전체 안전 프레임워크를 갖추고 있습니다.
[09:10]
따라서 이 더 큰 철학적 진술을
[09:12]
그들이 모델 출시 전
[09:14]
안전성을 고려하지 않는다고
[09:15]
읽지 마세요. 그건 틀렸으니까요.
[09:17]
하지만 팀이 테스트를 완료하고
[09:20]
모델이 충분히 안전하다고 판단되어 출시된 후
[09:23]
사용자로부터 피드백을 수집하고
[09:25]
제품 개선을 위해 강박적으로 반복합니다.
[09:28]
수백만 명의 사용자가 문제를 발견하고 보고하면
[09:30]
OpenAI가 이를 수정합니다.
[09:32]
ChatGPT Health의 출시가
[09:34]
이것의 좋은 예라고 생각합니다.
[09:37]
사용자들이 건강 문제와 관련해
[09:40]
ChatGPT와 상호작용하는 방식을 본 후
[09:42]
피드백을 듣고 반복 개선하여
[09:45]
보안 환경에서 기록을 업로드하고
[09:47]
ChatGPT와 대화할 수 있는
[09:50]
전용 제품을 출시했습니다.
[09:51]
즉, 사용자들이 이미 하고 있던 것을 가져다가
[09:53]
기존 ChatGPT 프로세스의 문제점을 파악하고
[09:55]
빠르게 새로운 것을 출시한 것입니다.
[09:57]
이것이 인간 역사상 가장 중요한 기술에
[09:59]
적용된 YC의 핵심 교훈입니다.
[10:01]
단순히 이론화하는 것이 아니라
[10:03]
배포를 통해 안전한 것이 무엇인지 배우는 것입니다.
[10:06]
하지만 다리오는 정반대로 믿습니다.
[10:08]
다리오에게 안전성은
[10:10]
배포에서 나오는 것이 아니라
[10:12]
배포의 전제조건입니다.
[10:15]
출시하기 전에 이해해야 합니다.
[10:17]
확장하기 전에 안전성을
[10:19]
적극적으로 입증해야 합니다.
[10:21]
이것이 헌법적 AI를 발명한 회사입니다.
[10:23]
공중을 레드팀으로 취급하지 않습니다.
[10:25]
그들을 시스템이 작동한다는 것을
[10:27]
손에 쥐어주기 전에 알 자격이 있는
[10:29]
사람들로 취급합니다.
[10:31]
그의 에세이 '사랑과 은총의 기계들'에서
[10:33]
다리오는 정말 중요한 것을 분명히 했습니다.
[10:35]
AI 기술의 기본적인 개발과
[10:37]
그 많은 이익들은 불가피해 보이며
[10:39]
근본적으로 강력한 시장 힘에 의해 추진되고
[10:41]
위험은 미리 결정되지 않습니다.
[10:44]
이것은 레버리지에 관한 논증입니다.
[10:45]
시장이 이익을 자동으로 처리할 것입니다.
[10:46]
다리오에 따르면
[10:48]
기업들은 자동적으로 AI를 더 유용하게 만들기 위해 경쟁할 것입니다.
[10:52]
시장이 자신의 역할을 다할 것이고
[10:54]
다리오에 따르면 옹호자가 필요하지 않습니다.
[10:58]
하지만 위험은 다릅니다.
[11:00]
다리오가 말하기를 그것들은 적극적인
[11:02]
개입이 필요합니다.
[11:04]
그것들은 브레이크를 밟을 수 있는
[11:06]
누군가가 필요하며 배포 전에
[11:08]
이해를 요구할 수 있어야 합니다.
[11:10]
그리고 그곳이 바로 집중적인 노력이
[11:13]
실제로 결과를 바꾸는 곳이고
[11:15]
그것이 그가 Anthropic의 역할을 보는 부분입니다.
[11:18]
이것이 Anthropic이
[11:20]
병원체 처리를 위한 생물안전 수준을
[11:22]
모델로 한 AI 안전 수준을
[11:24]
구축한 이유입니다.
[11:27]
예를 들어 ASL3에서는
[11:29]
시스템이 생물무기 제조에
[11:31]
의미 있는 도움을 줄 수 있고
[11:33]
Anthropic은 배포 전에
[11:36]
의미 있는 재앙적 오용 위험이
[11:38]
없음을 입증하겠다고
[11:40]
약속해야 합니다.
[11:41]
다시 말해, 기준은
[11:43]
'우리가 테스트했는데 문제를 찾지 못했다'가
[11:45]
아니라 '우리가 안전함을 증명할 수 있다'입니다.
[11:47]
그리고 만약 확장이 안전을 보장할 수 있는
[11:49]
능력을 앞선다면, Anthropic은 훈련을 일시정지할
[11:53]
의향이 있다고 명확히 말합니다.
[11:55]
그들은 속도를 늦출 의향이 있고
[11:57]
서두르지 않을 것입니다.
[12:00]
이것을 구글이 Gemini를 출시했을 때
[12:03]
OpenAI에서 일어난 일과
[12:04]
비교해보세요.
[12:07]
샘이 코드 레드를 선언하고
[12:09]
ChatGPT 5.2의 출시를
[12:11]
가속화했다고 보고됩니다.
[12:12]
OpenAI 역사상 가장 빠른
[12:15]
전환 중 하나로 출시를 앞당겼습니다.
[12:18]
경쟁 압박이 닥쳤을 때, OpenAI는
[12:20]
속도를 높이는 역사를 가지고 있습니다.
[12:22]
Anthropic은 잠재적으로
[12:24]
속도를 늦추기로 거버넌스 구조와 함께 약속했습니다.
[12:28]
이것들은 서로 다른 인식론입니다.
[12:32]
이것들은 완전히 다른
[12:34]
세상을 보는 방식입니다.
[12:36]
그리고 여기 대부분의 사람들이 모르는 것이 있습니다.
[12:39]
다리오는 2016년에 연구 부사장으로
[12:42]
OpenAI에 합류했습니다.
[12:44]
그는 OpenAI의 원래 헌장을
[12:45]
작성하는데 도움을 주었습니다.
[12:47]
4년 동안 그는
[12:49]
GPT2와 GPT3을 구축하는 데
[12:51]
중심적인 역할을 했습니다.
[12:53]
궁극적으로 그는
[12:55]
Anthropic을 설립하기 위해 떠났는데
[12:57]
그것은 그가 다른 비전을 믿었기 때문입니다.
[13:00]
그의 장기적 관점과 더 일치하는
[13:02]
비전이었습니다. 우리는
[13:04]
AI를 세상에 출시하기 전에 위험을 제거해야 한다는
[13:07]
것이었습니다. 따라서 Anthropic은
[13:10]
다리오가 AI 안전 회사를 구축하려는
[13:13]
첫 번째 시도가 아닙니다.
[13:15]
실제로는 두 번째이고
[13:17]
그는 그것으로부터 배웠고 그래서
[13:19]
AI 인센티브가 매우 강력한 시대에
[13:22]
거버넌스 위기를 관리하기 쉽게 만들기 위해
[13:25]
견제와 균형을 갖춘 Anthropic을
[13:27]
구축했습니다.
[13:29]
이 전체 대화에서 내가 가장 흥미롭게 생각하는
[13:32]
것 중 하나는
[13:33]
이 회사들의 제품 비전이
[13:35]
안전과 실험에 대한 이러한 관점을 반영한다는 것입니다.
[13:39]
2026년에는 전문직 계층의 인지 노동을 위한
[13:42]
핵심 운영 체제가 되었습니다.
[13:44]
변호사가 잘못된 인용을 감당할 수 없을 때
[13:47]
그들은 클로드를 사용합니다.
[13:49]
개발자가 프로덕션 코드를 작성해야 할 때
[13:50]
그들은 클로드로 향합니다.
[13:52]
애널리스트가 시장 정보를 종합해야 할 때
[13:54]
맞습니다, 그들도 클로드를 사용합니다.
[13:56]
아이러니하게도, 컴퓨팅을 조작하는 방법으로
[13:58]
코드에 베팅하고 클로드 코드를 통해
[14:02]
그것을 올바르게 만들어낸 것입니다.
[14:05]
챗봇을 통해, 최근에는
[14:07]
크롬 확장 프로그램을 통해서 말입니다.
[14:09]
다리오가 해낸 것은
[14:11]
우리가 본 것 중 가장 범용적인
[14:14]
전문가들이 업무를 더 효과적으로
[14:16]
수행할 수 있도록 돕는
[14:19]
에이전트에 가까운 것을 만든 것입니다.
[14:21]
이러한 집중이 2025년 마지막 달과
[14:25]
2026년 1월에 우리가 본
[14:27]
클로드 코드 사용량의
[14:30]
엄청난 증가로 이어진 것입니다.
[14:33]
이제 OpenAI는 반대편에 베팅했습니다.
[14:35]
Y Combinator 같은 빠른 배포의
[14:38]
실험 아이디어가
[14:40]
실험을 배포하도록 권장하는
[14:42]
문화로 번역되었습니다.
[14:45]
그래서 근본적으로, 제가 보는 철학은
[14:47]
OpenAI가 인텔리전스를
[14:49]
인간 삶의 모든 것을 건드리는
[14:51]
수평적 인터페이스로 본다는 것입니다.
[14:54]
그래서 AI는 마치 소비자 슈퍼 앱처럼
[14:56]
취급됩니다.
[14:57]
비디오를 위한 Sora, 의료 상담을 위한
[14:59]
ChatGPT Health가 있습니다.
[15:02]
검색 통합이 있고, 음성도 있고,
[15:04]
ChatGPT에 이미지 생성 기능이 있습니다.
[15:06]
브라우저도 있습니다.
[15:08]
ChatGPT는 정말 챗봇이 아닙니다.
[15:11]
의사이고, 영화 제작자이고,
[15:14]
검색 엔진이고, 코딩 어시스턴트입니다.
[15:17]
모든 것입니다. 라이프 플레어입니다.
[15:19]
그리고 이것은 회사가 생각하는 방식,
[15:21]
샘이 출시에 대해 생각하는 방식으로
[15:22]
의도적으로 되돌아간다고 믿습니다.
[15:25]
출시하고, 무엇이 효과적인지 보고,
[15:28]
더블 다운하는 것입니다.
[15:31]
마치 OpenAI가 내부에서
[15:33]
일련의 Y Combinator 회사들을
[15:35]
인큐베이팅하고 있는 것 같습니다.
[15:38]
무엇이 효과적인지 시도해보고
[15:40]
효과적인 것은 확대하고
[15:41]
그렇지 않은 것은 축소할 것입니다.
[15:44]
이 두 제품 비전을 보면
[15:46]
우리가 더 이상
[15:48]
하나의 AI 경제에 있지 않다는 것을
[15:50]
알 수 있을 것입니다.
[15:52]
이것은 정말 큰 혁명입니다.
[15:55]
저는 편을 들거나
[15:57]
승자를 선택하는 데 관심이 없습니다.
[16:00]
AI에서 모든 사람이 승리할 만큼
[16:03]
충분히 큰 세상입니다.
[16:06]
우리는 더 이상 하나의 AI 경제에 있지 않습니다.
[16:08]
우리는 매우 다른 규칙으로
[16:11]
운영되는 최소 두 개의 경제에 있습니다.
[16:13]
첫 번째 경제는 풍부한 인텔리전스의
[16:15]
극도로 빠른 생성에 중점을 둡니다.
[16:18]
만약 당신의 업무가 결과물, 콘텐츠,
[16:20]
미디어, 초안, 창의적 탐구를
[16:22]
생산하는 것과 관련이 있다면,
[16:24]
그리고 코덱스를 통한 코드까지 포함한다면,
[16:26]
당신은 OpenAI의 세계에 살고 있습니다.
[16:28]
그들은 한계 비용을 0으로
[16:30]
몰아가고 있습니다.
[16:32]
그들의 전략적 명령은 가능한 한 많은
[16:35]
사용자 생활의 측면에서 ChatGPT 인터페이스를
[16:39]
확산시켜 깊은 습관적 채택을
[16:42]
유도하는 것입니다.
[16:45]
시장이 어떤 것이 유익하고
[16:48]
어떤 것이 자동으로 이길지 결정할 것입니다.
[16:50]
당신은 단지 가능한 한 빨리
[16:52]
다양한 사용 사례에서
[16:55]
채택을 위한 많은 기회를
[16:57]
만들려고 노력하는 것입니다.
[16:58]
이것이 OpenAI 전략에 대한
[17:01]
가장 명확한 설명이라고 생각합니다.
[17:03]
한편, 경제 2는 복잡성 관리에 관한 것입니다.
[17:06]
이것은 전문적인 업무 환경입니다.
[17:08]
만약 당신의 일이
[17:09]
판단력 행사를 포함하거나,
[17:11]
프로덕션 코드나 법적 분석,
[17:13]
또는 고위험 의사결정이나
[17:15]
오류가 비용이 많이 드는 것을 포함한다면,
[17:18]
당신은 종종 Anthropic의 세계에 살고 있습니다.
[17:19]
Claude는 전문가를 대체하지 않지만
[17:21]
증폭시키고 보강합니다.
[17:24]
그것은 전문가의 마음을 위한
[17:26]
자전거가 됩니다.
[17:28]
따라서 여기서 전략적 명령은
[17:31]
채택 품질입니다.
[17:32]
당신의 판단력을 향상시키고
[17:34]
보존하면서 AI와 협업하는 방법을
[17:36]
어떻게 배울 것인가?
[17:38]
이것이 Claude 경험의 비밀 소스의
[17:40]
상당 부분입니다.
[17:42]
이것들이 얼마나 다른지 보세요.
[17:44]
이제는 심지어 같은
[17:45]
사용자도 아닙니다.
[17:48]
두 회사가 모두 경쟁하고 있는 한 영역에서
[17:50]
차이점이 오해되고 있다고 생각하는 것을
[17:53]
지적하고 싶습니다.
[17:56]
Codex 대 Claude Code는
[18:00]
사람들이 생각하는 것만큼
[18:02]
직접적으로 경쟁하지 않습니다.
[18:04]
왜냐하면 Anthropic이
[18:06]
코드를 컴퓨팅 생태계 전반에서
[18:09]
무엇이든 할 수 있게 해주는 도구로
[18:12]
사용하는 데 초점을 맞추고 있기 때문입니다.
[18:15]
Claude Code는 앞서 비디오에서
[18:18]
언급했듯이 효과적으로
[18:21]
최초의 범용 에이전트가 되었습니다.
[18:24]
동시에 Codex는
[18:26]
특히 대규모에서
[18:28]
코드 품질에 집착해왔습니다.
[18:31]
Codex는 많은 문제에서
[18:33]
Claude Code만큼 빠르지 않지만,
[18:35]
OpenAI는
[18:37]
엔지니어와 사용자와의
[18:38]
YC 스타일의 깊은 상호작용을 통해,
[18:41]
특히 항상 사용하는
[18:43]
OpenAI 엔지니어들을 포함해서,
[18:44]
유용한 것을 만들기 위해서는
[18:47]
정확한 코드를 출시해야 한다고 내기했습니다.
[18:49]
그리고 조금 더 시간이 걸리더라도
[18:50]
정확성에 대한 확신이 높다면
[18:52]
그만한 가치가 있을 것이라고 봤습니다.
[18:54]
Codex는 고품질 코드 리뷰로
[18:56]
유명하고, 버그를 찾는 것으로
[18:58]
유명합니다. 사람들은 여전히
[19:00]
'Claude Code 코드를 Codex에
[19:02]
넣어서 리뷰받으면 도움이 될 것'이라고 말합니다.
[19:05]
그리고 제가 보는 것은
[19:07]
엔지니어들이 시간을 보낼 곳에 대한
[19:09]
현저히 다른 비전입니다.
[19:11]
정말 신중하게 계획하고
[19:13]
그다음 신중하게 Codex에게
[19:15]
문제를 주어 해결하게 할 것인가?
[19:17]
이런 서로 다른 회사들과 전략들이 우리의
[19:20]
시간과 업무에 직접적인 영향을 미치는
[19:23]
첫 번째 영역이 바로 코딩입니다.
[19:25]
2026년에는 '어떤 AI가 더 나은가'라는
[19:28]
질문을 그만두고 'AI로 어떤 일을 하고
[19:31]
있으며 무엇이 유용한가'를
[19:33]
묻기 시작했으면 좋겠습니다. 그렇게
[19:36]
경쟁적이지 말고요. 저는 샘이
[19:38]
풍요의 엔진이라고 할 수 있는
[19:39]
무언가를 만들었다고 생각합니다.
[19:41]
모든 곳에 지능이 있고, 배포를 통해
[19:43]
안전성이 나타나며, 매일 제품을
[19:46]
사용하고 유용한 피드백을 제공하는
[19:48]
수백만 명의 사용자가 있습니다. 그리고
[19:51]
모든 YC 훈련과 론칭 본능이 ChatGPT를
[19:53]
수억 명을 위한 슈퍼 앱으로
[19:56]
만들어가고 있습니다. 다리오는
[19:59]
판단력을 위한 정밀한 레버를
[20:02]
만들었습니다. 지능이 넓어지기 전에
[20:04]
먼저 깊어진 것처럼요. 그리고 그는
[20:07]
인공지능 세계의 궤도를 내부적으로
[20:09]
깊은 일관성을 가진 시스템으로
[20:11]
구부리는 데 집중하고 있습니다.
[20:13]
무결성을 가진 시스템, 구조를 가진
[20:15]
시스템, 그리고 도덕적 핵심을 가진
[20:18]
AI 말이죠. 그래서 그가 해온 모든
[20:20]
것이 Claude를 매우 중요한 업무를 위한
[20:24]
운영체제로 만들어왔습니다. 단순히
[20:26]
코딩 업무만이 아니라 지식 업무 전반,
[20:28]
법률 업무도 떠오릅니다. 이사회
[20:30]
자료를 만드는 일, 정확하고 올바른
[20:32]
것이 필요한 모든 일들 말입니다.
[20:33]
이제 둘 다 AI가 변혁적일 수 있다고
[20:36]
믿고, 둘 다 안전이 중요하다고
[20:38]
믿습니다. 하지만 인공지능에 대한
[20:40]
근본적으로 다른 접근 방식, 세상에서
[20:42]
안전을 달성하는 방법, 중대한 결과를
[20:44]
가져올 지능을 런칭하는 회사를
[20:46]
어떻게 운영해야 하는지, 속도와
[20:47]
신중함의 균형을 어떻게 맞출지에
[20:49]
대한 이런 차이들이 우리 전체 세계를
[20:51]
형성하고 있습니다. 저는 일반지능
[20:53]
경쟁은 언론이 좋아하는 주제이지만,
[20:55]
요즘은 점점 더 도움이 되지 않는
[20:57]
특성화라고 생각합니다. 자동차
[21:00]
시장에서도 같은 일이 일어났습니다.
[21:02]
자동차가 처음 출시되었을 때 어떤
[21:04]
차가 최고인지 얘기했습니다.
[21:05]
90년대 애플과 윈도우가 전쟁을
[21:08]
벌일 때도 둘 중 어느 게 최고인지
[21:11]
얘기했습니다. 하지만 우리가 성장하고
[21:13]
시장이 성숙해지면서 '어느 것이
[21:16]
최고인가'는 의미 없어졌습니다.
[21:18]
제품들이 서로 다른 요구를 충족하도록
[21:21]
차별화되었기 때문입니다. AI에서는
[21:23]
더 빠르게 그런 지점에 도달하고
[21:25]
있습니다. AI에서는 모든 것이 더
[21:27]
빠르기 때문입니다. 만약 모든 것을
[21:29]
터치하고 전체 생태계가 서로 소통하고
[21:33]
다양한 미디어와 형태에서 많은
[21:34]
것을 생성해야 하는 세계에 있다면,
[21:36]
당신은 아마 샘 알트만의 세계에
[21:39]
있을 겁니다. 만약 복잡성을 관리하고
[21:41]
매우 높은 판단력이 필요하며
[21:42]
당신의 사고를 증폭시켜야 하는
[21:44]
세계에 있다면, 당신은 종종
[21:45]
다리오의 세계에 있을 겁니다.
[21:47]
그리고 우리 중 많은 사람들이 둘 다에
[21:50]
있다는 걸 알고 있습니다. 그래서
[21:52]
저는 계속해서 여기에 오직 하나의
[21:54]
승자만 있다고 생각하지 않는다고
[21:57]
강조하고 있습니다. 하지만 서로 다른
[21:59]
철학을 이해하는 것은 가치가 있다고
[22:01]
생각합니다. 그것들이 우리가 얻게 될
[22:03]
제품의 종류를 형성하기 때문입니다.
[22:06]
Claude가 곧 이미지 생성기를
[22:07]
출시할 거라고 기대해서는 안 됩니다.
[22:09]
비디오 생성기도 기대하면 안 됩니다.
[22:12]
Claude는 집중된 회사입니다.
[22:14]
Claude는 계속해서 뛰어난 도구 호출
[22:16]
에이전트를 출시할 것입니다. 반면,
[22:18]
OpenAI는 계속해서 적극적으로
[22:20]
실험할 것으로 기대해야 합니다.
[22:22]
저는 OpenAI가 제작한 영화가 향후 몇
[22:26]
년 내에 애니메이션 상 경쟁에
[22:29]
참여할 것으로 예상합니다. 그들은
[22:30]
찾을 수 있는 모든 곳에서 계속해서
[22:32]
경계를 밀어붙일 것입니다. 그것이
[22:34]
회사로서 그들이 하는 일이기
[22:36]
때문입니다. 그들은 실험하고
[22:37]
추진하려고 노력합니다. 빠른
[22:39]
피드백을 얻으려고 하고 발전하려고
[22:40]
노력합니다. 교육 분야에서도,
[22:42]
건강 분야에서도 같은 것을
[22:44]
기대해야 합니다. 그리고 그들은
[22:45]
계속해서 출시할 것입니다.
[22:47]
사실상 그들은 AI의 Y 컴비네이터이기
[22:49]
때문입니다. 이 영상이 이 두
[22:51]
회사의 리더십이 어떻게 문화,
[22:53]
전략, 그리고 궁극적으로 우리 10억
[22:55]
명 이상이 매일 접촉하고 있는
[22:57]
AI를 형성하고 있는지에 대한
[22:59]
감각을 주었기를 바랍니다.
[23:00]
차이점을 이해하는 것은 가치가
[23:02]
있다고 생각하고, 그런 차이점들이
[23:03]
내년에 우리가 무엇을 기대할 수
[23:05]
있는지를 어떻게 형성하는지 이해하는
[23:07]
것도 가치가 있습니다. 궁금한데 당신은 OpenAI와 Anthropic 중 어느 쪽으로 기울어지시나요?