샘 올트먼과 다리오 아모데이가 의견을 달리하는 이유 (그리고 당신에게 중요한 이유)

요약

이 영상은 인공지능 개발에서 ‘빠르게 출시하고 반복한다’는 샘 올트먼의 접근법과 ‘사전에 안전을 증명한다’는 다리오 아모데이의 접근법을 비교합니다. 두 리더의 성장 배경과 경험이 어떻게 각기 다른 AI 전략과 제품 비전으로 이어졌는지 설명하며, 현재 클로드(Claude)와 챗GPT(ChatGPT)의 시장 분화가 이 차이에서 비롯되었음을 보여줍니다. 이를 통해 앞으로 AI가 우리 삶에 미칠 영향과 각 플랫폼이 지향하는 서비스 형태가 어떻게 달라질지 조망합니다.

주요 키워드

Y Combinator AI safety deployment iteration feedback loop Constitutional AI agent hallucination

하이라이트


  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 954

용어 설명

Red Team

외부 사용자나 공격 시나리오를 모방해 시스템의 취약점을 찾는 안전성 테스트 방식

Constitutional AI

Anthropic이 제안한 AI 거버넌스 프레임워크로, 시스템 행동에 대한 명확한 원칙(헌법)을 사전 정의해 안전성을 강화하는 방식

Biosafety Levels

미생물 취급 강도를 나타내는 등급 체계로, Anthropic은 이를 AI 위험 등급에 빗대어 도입해 ‘ASL(Level) 3’ 등 안전 기준을 설정

Y Combinator

실리콘밸리 대표 스타트업 액셀러레이터로, ‘빠른 출신(ship fast)·반복(iteration)’ 문화를 AI 개발에도 적용하도록 영향을 미침

Hallucination

AI가 실제 근거 없이 부정확한 정보를 생성하는 현상으로, Anthropic은 이를 최소화하는 ‘정확성 중시 전략’을 채택

Agent

목표 달성을 위해 스스로 계획·실행하는 AI 기능으로, Claude Code는 범용 에이전트로 전문가 작업을 보조하는 도구로 자리 잡음

[00:00:00] 두 가지 AI 전략의 분기

AI를 안전하게 대규모로 구축하는 두 가지 철학인 ‘빠르게 배포하며 학습’ vs ‘사전 안전 증명 후 배포’가 2021년부터 갈라져 지금의 클로드와 챗GPT 시장을 만들었다.

AI 안전 구축에 대한 두 가지 전략 소개 - 빠른 배포 후 피드백을 통한 학습 방식과 배포 전 안전성 검증을 우선시하는 방식으로 OpenAI와 Anthropic이 갈라진 배경
[00:01:10] 전략의 뿌리: 리더의 배경

샘 올트먼과 다리오 아모데이는 단순히 비즈니스 기획이 다른 것이 아니라, 과학자 출신과 스타트업 전문가 출신으로서 진화와 안전에 대한 근본 인식이 다르다.

2023-2025년 AI 업계는 '어떤 모델이 더 나은가'라는 질문에 집중했지만, 2024년 말부터 두 회사의 전략이 완전히 다른 방향으로 분화되기 시작
이러한 차이는 우연이나 전략적 포지셔닝이 아닌, 샘 알트만과 다리오 아모데이라는 두 리더의 근본적으로 다른 철학과 배경에서 비롯된 필연적 결과
[00:02:38] 다리오 아모데이의 성장과 가치

수학·물리에 집착하던 아모데이는 프린스턴에서 부친의 죽음과 의학적 타이밍 문제를 겪으며, 근본 이해와 인류 기여를 위해 사전 안전 검증을 중시하는 연구자로 거듭났다.

다리오 아모데이의 배경 소개 - 90년대 샌프란시스코 출생, 이탈리아계 미국인 가죽 장인 아버지와 도서관 프로젝트 매니저 어머니라는 장인정신과 체계적 사고를 중시하는 가정 환경
아마데이의 성장 배경과 지식에 대한 태도를 설명합니다. 그는 장인정신과 체계적 사고를 중시하는 가정에서 자랐으며, 수학과 물리학에만 관심이 있었다고 명확히 밝혔습니다.
실리콘밸리의 앱과 제품 문화에는 전혀 관심이 없었던 아마데이의 특이한 성향을 강조합니다. AI 회사 CEO임에도 웹사이트 개발보다는 근본적 과학 진실 발견에 매료되어 있었습니다.
아마데이의 학업 경력을 추적합니다. 칼텍에서 물리학을 시작해 스탠포드로 편입 후 프린스턴에서 신경 회로의 전기생리학을 연구했으며, 생물학적 뉴런의 정보 처리와 뇌의 작동 방식을 이해하려 했습니다.
프린스턴에서의 비극적 경험이 그의 철학을 형성한 과정을 설명합니다. 아버지가 희귀 질병으로 사망한 후 4년 뒤 그 질병의 치료법이 발견되었고, 이는 과학적 발전의 시급성을 깨닫게 했습니다.
개인적 비극 이후 아마데이의 연구 방향 변화를 다룹니다. 이론물리학에서 생물물리학과 전산신경과학으로 초점을 옮겨 인간 질병을 직접 해결하는 연구에 집중했으며, 이 철학이 현재 Anthropic의 접근법을 정의한다고 분석합니다.
[00:05:16] 샘 올트먼의 창업 DNA

어린 시절부터 프로그래밍에 빠진 올트먼은 사회연결망 앱 실패 경험을 ‘반복의 교훈’으로 삼아 YC에서 ‘빠른 실험·피드백·확장’ 문화를 익혀 OpenAI에 접목했다.

샘 올트먼의 대조적인 배경을 소개합니다. 1985년 미주리 출생으로 8세에 프로그래밍을 배웠고, 스탠포드 컴퓨터 과학과를 자퇴 후 소셜 네트워킹 앱 회사를 창업했지만 시장 준비 부족과 낮은 사용자 유지율로 실패했습니다.
샘 알트만은 다른 창업자들과 달리 실패를 반복학습의 기회로 받아들였으며, Y 컴비네이터에서 '빠른 출시, 피드백 수집, 반복'의 철학을 배우고 이를 OpenAI에 적용했습니다.
Y 컴비네이터는 에어비앤비, 드롭박스, 레딧을 성공시키며 실리콘밸리 창업의 교과서를 썼고, 한 세대의 창업자들에게 속도와 규모 중심의 사고방식을 가르쳤습니다.
알트만이 OpenAI CEO가 되면서 YC의 세계관인 '빠르게 움직이고, 실험을 출시하고, 시장 점유율을 확보하고, 대규모 사용자로부터 학습'하는 방식을 가져왔습니다.
다리오는 배포 전에 이해하려는 과학자 출신 기업가이고, 샘은 이해를 위해 배포하려는 기업가 출신 기술 리더로서, 진보에 대한 근본적으로 다른 이론을 가지고 있습니다.
현재 이 두 리더의 서로 다른 철학이 인공지능의 미래와 우리의 작업 방식을 실제로 형성하고 있어, 그들의 사고방식과 회사 운영 방향을 이해하는 것이 중요합니다.
일반적인 'OpenAI는 무모해서 빠르게, 앤트로픽은 신중해서 천천히'라는 내러티브는 잘못된 것으로, 두 리더 모두 AI 안전을 중시하지만 달성 방법에 대한 이론이 다릅니다.
[00:07:55] 올트먼의 AI 안전 철학

‘배포를 통한 안전 확보’는 YC 방식으로, 내부 테스트 이후에도 대중의 실제 사용 데이터를 안전 레드팀 역할로 삼아 반복적으로 AI를 다듬는다는 원칙이다.

샘은 안전이 배포를 통해 나온다고 믿는데, 이는 태만이 아니라 YC에서 배운 일관된 철학으로, 차고에서의 이론화보다 실제 사용자와의 상호작용을 통한 학습을 중시합니다.
샘 알트먼은 Y Combinator의 핵심 원칙을 AI 안전성에 적용합니다. 사용자와의 실제 상호작용을 통해서만 제품을 진정으로 이해할 수 있으며, 시장의 피드백이 내부 테스트보다 훨씬 가치있다고 주장합니다.
샘은 AI 시스템의 안전성을 확보하는 최선의 방법이 반복적이고 점진적인 출시를 통해 사회가 기술과 함께 공진화하도록 하는 것이라고 명시적으로 기술했습니다. 이는 YC의 철학과 정확히 일치하는 접근법입니다.
샘의 프레임워크에서 공중은 일종의 테스팅 환경 역할을 합니다. OpenAI가 광범위한 내부 테스트를 수행하고 안전 프레임워크를 갖추고 있지만, 진정한 학습은 사용자와의 실제 상호작용을 통해 일어난다고 봅니다.
ChatGPT Health의 출시가 이러한 접근법의 좋은 예입니다. 사용자들이 건강 관련 문제로 ChatGPT를 사용하는 방식을 관찰한 후, 피드백을 듣고 반복 개선하여 전용 보안 환경의 제품을 빠르게 출시했습니다.
이것이 인간 역사상 가장 중요한 기술에 적용된 YC의 핵심 교훈입니다 - 단순히 이론화하는 것이 아니라 실제 배포를 통해 안전성을 학습한다는 것입니다.
하지만 다리오 아모데이는 정반대의 철학을 가지고 있습니다. 그에게 안전성은 배포에서 나오는 것이 아니라 배포의 전제조건입니다. 출시 전에 이해하고, 확장 전에 안전성을 적극적으로 입증해야 한다고 믿습니다.
[00:10:08] 아모데이의 AI 안전 철학

‘안전이 곧 전제 조건’이라는 관점으로, Anthropic은 AI의 위험 등급을 정하고 배포 전 안전 증명을 요구하며 필요 시 개발 중단까지 감수하는 거버넌스를 설계했다.

헌법적 AI를 발명한 Anthropic은 공중을 레드팀으로 취급하지 않습니다. 대신 시스템이 안전하게 작동한다는 것을 먼저 증명할 자격이 있는 사람들로 여깁니다.
다리오는 '사랑과 은총의 기계들' 에세이에서 AI 기술 개발과 그 이익은 시장 힘에 의해 불가피하게 추진되지만, 위험은 미리 결정되지 않는다고 주장합니다. 이는 레버리지에 관한 논증으로, 시장이 자동으로 이익을 처리한다는 것입니다.
다리오는 시장이 AI의 이익을 자동으로 처리하지만, 위험은 적극적인 개입이 필요하다고 주장합니다. 배포 전에 이해를 요구하는 브레이크 역할이 필요하다는 것이 핵심입니다.
Anthropic이 병원체 처리를 위한 생물안전 수준을 모델로 한 AI 안전 수준을 구축한 이유를 설명합니다. ASL3 수준에서는 배포 전에 재앙적 위험이 없음을 증명해야 합니다.
구글이 Gemini를 출시했을 때 OpenAI의 대응을 비교 분석합니다. 샘 알트만이 코드 레드를 선언하고 ChatGPT 출시를 가속화한 것과 Anthropic의 속도 조절 약속을 대조합니다.
두 회사의 근본적으로 다른 인식론을 설명하며, 다리오가 OpenAI에서 4년간 GPT2, GPT3 개발에 중심 역할을 했다가 다른 비전을 위해 떠났다는 배경을 제시합니다.
[00:13:02] 클로드 vs 챗GPT 제품 비전

Anthropic은 정밀한 수직형 AI로 전문직의 복잡한 판단을 지원하고, OpenAI는 소비자용 슈퍼앱으로 일상·창작·코딩 등 광범위 영역을 빠르게 커버하는 전략을 구사한다.

Anthropic이 다리오의 두 번째 AI 안전 회사 시도이며, AI 인센티브가 강력한 시대에 거버넌스 위기 관리를 위한 견제와 균형 시스템을 구축했다고 설명합니다.
두 회사의 제품 비전이 안전과 실험에 대한 서로 다른 관점을 반영한다고 분석하며, Anthropic이 지능을 특정 고객이 높은 프리미엄을 지불할 수직적 전문 영역으로 보고 있음을 설명합니다.
클로드는 2026년 전문직 계층의 핵심 운영 체제가 되었으며, 변호사들은 잘못된 인용을 피하기 위해, 개발자들은 프로덕션 코드를 위해, 애널리스트들은 시장 분석을 위해 클로드를 선택합니다.
다리오는 코드를 컴퓨팅 조작의 핵심으로 보고 클로드 코드, 챗봇, 크롬 확장을 통해 전문가들을 위한 가장 범용적인 에이전트를 만들었으며, 이는 2025년 말과 2026년 초 클로드 코드 사용량 급증으로 이어졌습니다.
OpenAI는 반대 전략을 택했습니다. Y Combinator식 빠른 실험과 배포 문화를 통해 인텔리전스를 인간 삶의 모든 영역을 터치하는 수평적 인터페이스로 접근하며, ChatGPT를 소비자 슈퍼 앱으로 발전시켰습니다.
ChatGPT는 단순한 챗봇이 아니라 비디오용 Sora, 의료 상담용 ChatGPT Health, 검색, 음성, 이미지 생성, 브라우저 기능을 모두 갖춘 의사이자 영화 제작자이자 검색 엔진이자 코딩 어시스턴트입니다.
이는 샘의 '출시-관찰-집중' 철학을 반영하며, OpenAI는 내부에서 여러 Y Combinator 회사를 인큐베이팅하듯 다양한 기능을 실험하고 효과적인 것만 확대하는 전략을 취하고 있습니다.
이제 우리는 하나의 AI 경제가 아닌, 매우 다른 규칙으로 운영되는 최소 두 개의 AI 경제에 살고 있습니다. 첫 번째 경제는 풍부한 인텔리전스의 극도로 빠른 생성에 중점을 둡니다.
콘텐츠, 미디어, 초안, 창의적 탐구, 그리고 코덱스를 통한 코드 생산이 업무인 사람들은 OpenAI의 세계에 살고 있으며, 그들은 한계 비용을 0으로 몰아가고 있습니다.
OpenAI의 전략은 ChatGPT 인터페이스를 사용자 생활의 모든 측면에 확산시켜 깊은 습관적 채택을 유도하는 것으로, 시장이 자연스럽게 우수한 기능을 선별하도록 하면서 최대한 빠르게 다양한 사용 사례에서 채택 기회를 창출하는 데 중점을 둔다.
[00:16:52] 두 개의 AI 경제

‘생산량 과잉의 수평 경제(챗GPT)’와 ‘고난도 지식 노동 지원의 수직 경제(클로드)’가 공존하면서 서로 다른 사용자층과 시장 가치를 창출하고 있다.

두 번째 경제 모델인 Anthropic의 접근법은 복잡성 관리에 중점을 두며, 전문적인 업무 환경에서 판단력과 고위험 의사결정이 필요한 영역을 다룬다. Claude는 전문가를 대체하지 않고 증폭하여 '마음의 자전거' 역할을 하며, 채택 품질과 AI와의 협업 방법 학습에 전략적 명령을 둔다.
[00:17:45] 코드 도구의 분화

OpenAI의 CodeX는 빠른 코드 생성·리뷰를, Anthropic의 Claude Code는 점진적 정확성·에이전트 실행에 집중해 개발자의 협업 방식과 시간 할당이 달라진다.

Codex와 Claude Code는 직접적인 경쟁관계가 아니며 서로 다른 접근법을 취한다. Claude Code는 컴퓨팅 생태계 전반에서 활용할 수 있는 최초의 범용 에이전트로 발전했고, Codex는 대규모 코드 품질에 집착하며 정확성을 위해 시간을 투자하는 것이 가치 있다고 보는 철학을 갖고 있다.
두 도구는 엔지니어의 시간 배분에 대한 근본적으로 다른 비전을 제시한다. 신중한 계획 후 Codex에게 문제를 맡기는 방식과, Claude Code와 더 반복적으로 작업하거나 에이전트가 작업 매개변수를 인터뷰하고 발견하는 방식 중 어느 것을 택할지는 미래 작업 방식에 대한 서로 다른 접근법을 보여준다.
AI의 서로 다른 접근 방식이 코딩 분야에서 우리의 시간과 업무에 직접적인 영향을 미치고 있으며, 2026년에는 경쟁적인 비교 대신 실질적인 유용성에 초점을 맞추기를 바란다고 제안합니다.
[00:19:28] 이제 중요한 질문

‘어떤 AI가 더 나은가’ 대신 ‘내가 어떤 작업을 AI와 할 것인가’를 묻기 시작해야 하며, 두 철학은 모두 이 시대 AI 활용 방향을 다각도로 풍부하게 만든다.

샘 알트만은 지능이 어디에나 있고 배포를 통해 안전성이 나타나는 '풍요의 엔진'을 구축했으며, 수백만 명의 사용자 피드백을 바탕으로 ChatGPT를 슈퍼 앱으로 발전시키고 있습니다.
다리오 아모데이는 깊이 있는 지능과 도덕적 핵심을 가진 시스템을 구축하여 Claude를 법률 업무, 이사회 자료 작성 등 정확성이 중요한 고위험 업무의 운영체제로 만들었습니다.
두 회사 모두 AI의 변혁적 가능성과 안전의 중요성을 인정하지만, 인공지능에 대한 근본적으로 다른 철학과 접근 방식이 전체 AI 세계를 형성하고 있습니다.
일반지능 경쟁에 대한 논의는 점점 도움이 되지 않는 특성화가 되고 있으며, 자동차나 컴퓨터 운영체제 시장처럼 제품들이 서로 다른 요구를 충족하도록 차별화되고 있습니다.
전체 생태계와 다양한 미디어 형태가 필요한 경우 샘 알트만의 세계에, 복잡성 관리와 높은 판단력이 필요한 경우 다리오의 세계에 속하며, 많은 사람들이 두 영역 모두에 있습니다.
서로 다른 철학을 이해하는 것은 중요하며, Claude는 도구 호출 에이전트에 집중하는 반면 OpenAI는 이미지, 비디오, 교육, 건강 등 다양한 분야에서 적극적으로 실험할 것으로 예상됩니다.
오늘은 2026년에 어떤 AI
전략이 승리할지 살펴보겠습니다. 정말로
AI를 안전하고 대규모로
구축하는 방법에 대한 두 가지 이론이 있습니다. 두
전략, 두 철학이
2021년부터 갈라지기 시작했고 이제
완전히 다른
회사들과 완전히 다른 제품들을
그리고 점점 더 다른 시장을 만들어냈습니다. 저는
클로드와
챗GPT에 대해 이야기하고 있습니다. 하나의 이론은
배포하면서 배운다고 말합니다. 빠르게 출시하고,
수백만 사용자로부터 피드백을 받고
반복하면 대중이 사실상
안전성을 위한 레드팀이 됩니다. 다른
이론은 배포하기 전에
먼저 이해해야 한다고 말합니다. 먼저
안전하다는 것을 증명해야 합니다.
실험실은 실험실이지, 세상이 아닙니다. OpenAI는 빠른 출시
전략에 베팅했습니다. Anthropic은 신중한 출시
전략에 베팅했습니다. 그리고 2026년 1월까지,
우리는 드디어 각 베팅이
시장에서 무엇을 만들어냈는지 볼 수 있습니다. 그리고 더
중요하게는, 우리는 어떤
전략이 누구에게 승리하고 있는지 보기 시작할 수 있습니다. 그리고 여기가
대부분의 사람들이 놓치는 부분입니다. 이것은
한 회사는 무모하고
다른 회사는 신중하다는 이야기가 아닙니다. 저는 그것이
지나친 단순화라고 생각합니다. 샘 알트만과
다리오 아모데이 모두 안전이 중요하다고 믿습니다.
그들은 단지 근본적으로 다른
이론을 가지고 있습니다. 그것을 어떻게 달성하는지에 대해서 말이죠. 그리고
그 이론들은 그 두
리더들이 누구인지, 어디서 왔는지,
그리고 그들이
AI를 다루기 전에 무엇을 배웠는지로 거슬러 올라갑니다. 2년 동안, 정말로
2023년 말부터 2025년 말까지, 모든 AI
대화는 하나의
질문을 중심으로 구성되었습니다. 어떤 모델이 더 나은가?
벤치마크 비교, 아레나 점수,
분위기 테스트. 이 질문은 두 회사가
똑같은 결승선을 향해 경주하는 것처럼 보였을 때
말이 되었습니다. 하지만
2024년 말 어느 시점에서 길이 갈라졌고
2025년 내내 계속 갈라졌고
그것을 알아내는 데 시간이 좀 걸렸습니다.
2026년 1월까지, 그 차이는
너무 완전해져서 클로드와
챗GPT를 비교하는 것은, 제가 보기에는
병원과 텔레비전
스튜디오 중 어느 것이 더 나은가 물어보는 것과 같습니다. 그들은
둘 다 건물입니다. 둘 다
전기를 사용하지만, 완전히
다른 목적을 제공합니다. 그리고 저는 그것이
점점 더 클로드와 챗
GPT에게도 사실이라고 생각합니다. 여기가 대부분의 사람들이 놓치는 부분입니다. 이
차이는 전략의
우연이 아니었습니다. 시장
포지셔닝의 결과도 아니었습니다. 저는 그것이 이 회사들이
설립된 순간부터 불가피했다고 믿습니다
왜냐하면 그것이 회사 리더들의
DNA에 인코딩되어 있기 때문입니다. 샘
알트만과 다리오 아모데이는 다른 사업 계획을 가진
다른 CEO가 아닙니다.
그들은 진보가 어떻게 작동하는지에 대한
다른 이론을 가진 다른 종류의 사람들이고
가장 중요하게는 인공
지능에서 안전이 어떻게 일어나는지에 대한
다른 이론들을 가지고 있습니다. 그래서 이 두 회사가 왜
이렇게 완전히 갈라지는지
이해하려면, 이 두
남자가 어디서 왔는지 이해해야 합니다. 다리오는
90년대 초 샌프란시스코에서 태어났습니다. 그의
아버지는 이탈리아계 미국인 가죽
장인이었습니다. 그의 어머니는 도서관을 위한 프로젝트
매니저로 일했습니다. 제가 추측하기로는 그것이
제품 관리 이전의 일이었습니다. 장인정신을 중시하는 가정이었죠.
체계적 사고와 세심함을 중요하게 여기는 가정이었습니다.
하지만 아마데이를 정말 특별하게 만든 것은
지식에 대한 그의 태도였습니다. 인터뷰에서
그는 이에 대해 놀랍도록 명확했습니다.
그는 이렇게 말했습니다.
'저는 거의 전적으로 수학과 물리학에만 관심이 있었습니다.
웹사이트를 만드는 일은 전혀 흥미롭지 않았어요.
저는 근본적인 과학적 진실을 발견하는 데
관심이 있었습니다.' 잠시 생각해보세요.
이 사람은 지구상에서 가장 가치 있는
인공지능 회사 중 하나의 CEO입니다.
수많은 사람들이 웹사이트를 만들기 위해
사용하는 제품을 출시한 사람이죠.
그런데 그는 실리콘밸리의 전체 문화,
앱들, 제품들, 스타트업들이
자신에게는 전혀 매력적이지 않았다고 말하고 있습니다.
그는 사람들이 일상적으로 사용하는 것들,
기업 가치 평가를 좌우하는 것들을
만드는 데는 관심이 없었습니다. 아이러니하게도
그는 스타트업의 CEO인데도 말이죠.
그는 사물이 어떻게 작동하는지 이해하는 데 끌렸습니다.
그는 과학자였습니다. 아마데이는 칼텍에서
물리학을 공부하며 시작했고, 학사 학위를
마치기 위해 스탠포드로 편입했습니다.
그 후 프린스턴에서 박사 과정을 밟았습니다.
거기서 그는 미래 연구와 깊은 관련이 있는
분야를 공부했습니다. 신경 회로의 전기생리학을 말이죠.
그는 문자 그대로 생물학적 뉴런이
정보를 어떻게 처리하는지, 뇌가 개별 세포 수준에서
그리고 집단적 행동으로 어떻게 작동하는지 이해하려 했습니다.
하지만 프린스턴에서 비극적인 일이 일어났고
이는 그 이후의 모든 것을 형성했습니다.
그의 아버지가 희귀 질병으로 돌아가신 것입니다.
그리고 불과 4년 후, 의학적 돌파구가
이전에는 치명적이었던 그 질병을
거의 치료 가능한 질병으로 바꿔놓았습니다.
이런 타이밍은 너무나 고통스럽고
만성 질환으로 고통받은 사람이라면 누구나 알 수 있는
경험입니다. 치료법은 잘못된 시점에
존재할 수 있습니다. 치료법이 너무 늦게 올 수 있죠.
이런 경험이 정말로 그에게
무언가를 명확하게 해준 것 같습니다.
그 이후로 우리는 그의 경력에서
과학적 발전과 과학적 지식의 가치에
초점을 맞추는 것을 보아왔습니다. 아마데이는
이후 연구 초점을 이론물리학에서
생물물리학과 전산신경과학으로
인간의 질병을 직접 다루는 연구로 옮겼습니다.
그가 회사를 설립했을 때도
그 철학은 그와 함께했습니다. 사실
저는 이것이 지금도 Anthropic의 구축 접근법과
철학의 많은 부분을 정의한다고 주장하고 싶습니다.
그리고 2026년과 그 이후
그들로부터 기대할 수 있는 많은 것들을 말이죠.
이제 샘 올트먼을 다시 살펴보겠습니다.
이것과 대조해 보죠. 올트먼은 1985년
미주리주 세인트루이스에서 태어났습니다.
그는 8살에 매우 일찍 프로그래밍을 배웠습니다.
스탠포드에서 컴퓨터 과학을 공부했지만
곧바로 자퇴하고 회사를 창업했습니다.
소셜 네트워킹 앱이었지만 실패했죠.
시장이 준비되지 않았고
사용자 유지율이 낮았습니다.
우리 모두 그런 경험이 있죠. 확실히
대부분의 창업자들은 그런 상황에 있어본 적이 있습니다.
실패했습니다. 하지만 알트만은 다른 창업자들과 달랐습니다.
그는 그 실패를
너무 빨리 움직인 것에 대한 경고로
받아들이지 않았습니다.
그는 그것을 반복학습의 교훈으로 경험했습니다.
실패는 단순히 다시 시작할 기회일 뿐입니다.
그는 이번에는 더 똑똑하게 하겠다고 말했습니다.
그래서 그는 Y 컴비네이터에 합류하여
먼저 파트너가 되었고
그다음 YC의 사장이 되었습니다.
Y 컴비네이터는 OpenAI의 접근 방식에
많은 영향을 미쳤습니다.
빠른 출시, 사용자 피드백 수집, 반복.
이것들이 Y 컴비네이터가 가르치는 것이고
OpenAI도 깊이 믿고 있는 것들입니다.
그리고 샘의 리더십 하에
Y 컴비네이터는 실리콘밸리에서
가장 영향력 있는 기관 중 하나가 되었습니다.
에어비앤비, 드롭박스, 레딧을 런칭했습니다.
한 세대의 창업자들을 속도와 규모의
관점에서 생각하도록 훈련시켰습니다.
실리콘밸리 창업에 대한 교과서를
썼다고 볼 수 있습니다.
그래서 알트만이 2015년 OpenAI를 공동 창립하고
나중에 CEO가 되었을 때
그는 그 세계관을 가지고 왔습니다.
빠르게 움직이고, 실험을 출시하고,
시장 점유율을 확보하고, 대규모 사용자로부터
학습하는 것. 차이점이 보이시나요?
다리오는 기업가가 된 과학자입니다.
배포하기 전에 이해하려는 본능,
당신이 구축한 가치가 실제로 주변 세상을
어떻게 형성하는지 이해하려는 본능을 가지고 있습니다.
그리고 샘은 기술 리더가 된 기업가로서
이해하기 위해 배포하려는 본능,
사용자로부터 직접 학습하기 위해
그냥 출시하려는 본능을 가지고 있습니다.
저는 이 두 방향성 중 어느 것이
잘못되었다고 주장하려는 것이 아닙니다.
그건 빈약한 관점이라고 생각합니다.
저는 이들이 진보가 어떻게 일어나는지에 대한
서로 다른 이론이며
근본적으로 다른 조직으로 이어진다고
주장하고 있습니다. 그리고 이 시점에서
이 두 리더와 그들의 서로 다른
철학이 실제로 인공지능의 미래와
우리 모두가 일하는 방식을 형성하고 있습니다.
그들이 생각하는 방식을 이해할 가치가 있고
그 결과로 그들이 회사를 어디로
이끌고 있는지 고려할 가치가 있습니다.
그것이 이 비디오의 마지막에
다룰 내용입니다.
저는 이 리더들이 가진 서로 다른 안전
이론에 대해 잠시 이야기하고 싶습니다.
왜냐하면 이것이 널리 오해되고 있다고
생각하기 때문입니다. 대부분의 AI 보도는
이것을 잘못 이해하고 있습니다.
일반적인 내러티브는 어떤 회사들은
안전에 신경 쓰고 어떤 회사들은
그렇지 않다는 것입니다. 이는 틀렸다고 생각합니다.
OpenAI는 무모해서 빠르게 출시한다는
일반적인 내러티브가 있습니다.
앤트로픽은 신중해서 천천히 출시한다는
일반적인 내러티브가 있습니다.
그런 식으로 읽지 마세요. 샘과 다리오 모두
AI 안전이 매우 중요하다고 믿습니다.
하지만 그들은 그것을 달성하는 방법에 대해
매우 다른 이론을 가지고 있습니다.
샘은 안전이 배포로부터 나온다고 믿습니다.
그리고 이것은 전략으로 포장된
태만이 아닙니다. 이것은 일관된 철학이며
YC 교육에서 직접 나온 것입니다.
YC에서 당신은 차고에서 영원히
이론화할 수 있지만, 실제로는
사용자가 제품과 상호작용하기 전까지는 제품을 이해할 수 없습니다.
시장이 당신에게 가르쳐줍니다.
다른 방법으로는 배울 수 없는 것들을요.
실제 세계의 피드백은
내부 테스트보다
100배, 1000배 더 가치있습니다.
그리고 샘은 이 정확한 프레임워크를
AI 안전성에 적용했습니다.
그의 글에서 매우 명시적으로
인용하자면, "AI 시스템을 안전하게 만드는
최선의 방법은 반복적이고
점진적으로 세상에 출시하여
사회가 적응할 시간을 주고
기술과 함께 공진화하도록 하는 것입니다."
그리고 다보스에서 그는 반복적 개발이
사회가 기술에 익숙해질 수 있게 한다고 말했습니다.
사회와 기술이 공진화하고
매우 긴밀한 피드백 루프를 통해
단계별로 발전해 나가도록 하는 것입니다.
이것은 YC처럼 들립니다.
샘의 프레임워크에서는
공중이 어떤 면에서 테스팅 환경입니다.
그리고 그들이 내부 테스트를
하지 않는다고 말하고 싶지는 않습니다.
OpenAI는 모델을 출시하기 전에
광범위한 내부 테스트를 수행합니다.
그들은 안전 기능과
테스트 작업을 나열한 모델 카드를 제작합니다.
그리고 전체 안전 프레임워크를 갖추고 있습니다.
따라서 이 더 큰 철학적 진술을
그들이 모델 출시 전
안전성을 고려하지 않는다고
읽지 마세요. 그건 틀렸으니까요.
하지만 팀이 테스트를 완료하고
모델이 충분히 안전하다고 판단되어 출시된 후
사용자로부터 피드백을 수집하고
제품 개선을 위해 강박적으로 반복합니다.
수백만 명의 사용자가 문제를 발견하고 보고하면
OpenAI가 이를 수정합니다.
ChatGPT Health의 출시가
이것의 좋은 예라고 생각합니다.
사용자들이 건강 문제와 관련해
ChatGPT와 상호작용하는 방식을 본 후
피드백을 듣고 반복 개선하여
보안 환경에서 기록을 업로드하고
ChatGPT와 대화할 수 있는
전용 제품을 출시했습니다.
즉, 사용자들이 이미 하고 있던 것을 가져다가
기존 ChatGPT 프로세스의 문제점을 파악하고
빠르게 새로운 것을 출시한 것입니다.
이것이 인간 역사상 가장 중요한 기술에
적용된 YC의 핵심 교훈입니다.
단순히 이론화하는 것이 아니라
배포를 통해 안전한 것이 무엇인지 배우는 것입니다.
하지만 다리오는 정반대로 믿습니다.
다리오에게 안전성은
배포에서 나오는 것이 아니라
배포의 전제조건입니다.
출시하기 전에 이해해야 합니다.
확장하기 전에 안전성을
적극적으로 입증해야 합니다.
이것이 헌법적 AI를 발명한 회사입니다.
공중을 레드팀으로 취급하지 않습니다.
그들을 시스템이 작동한다는 것을
손에 쥐어주기 전에 알 자격이 있는
사람들로 취급합니다.
그의 에세이 '사랑과 은총의 기계들'에서
다리오는 정말 중요한 것을 분명히 했습니다.
AI 기술의 기본적인 개발과
그 많은 이익들은 불가피해 보이며
근본적으로 강력한 시장 힘에 의해 추진되고
위험은 미리 결정되지 않습니다.
이것은 레버리지에 관한 논증입니다.
시장이 이익을 자동으로 처리할 것입니다.
다리오에 따르면
기업들은 자동적으로 AI를 더 유용하게 만들기 위해 경쟁할 것입니다.
시장이 자신의 역할을 다할 것이고
다리오에 따르면 옹호자가 필요하지 않습니다.
하지만 위험은 다릅니다.
다리오가 말하기를 그것들은 적극적인
개입이 필요합니다.
그것들은 브레이크를 밟을 수 있는
누군가가 필요하며 배포 전에
이해를 요구할 수 있어야 합니다.
그리고 그곳이 바로 집중적인 노력이
실제로 결과를 바꾸는 곳이고
그것이 그가 Anthropic의 역할을 보는 부분입니다.
이것이 Anthropic이
병원체 처리를 위한 생물안전 수준을
모델로 한 AI 안전 수준을
구축한 이유입니다.
예를 들어 ASL3에서는
시스템이 생물무기 제조에
의미 있는 도움을 줄 수 있고
Anthropic은 배포 전에
의미 있는 재앙적 오용 위험이
없음을 입증하겠다고
약속해야 합니다.
다시 말해, 기준은
'우리가 테스트했는데 문제를 찾지 못했다'가
아니라 '우리가 안전함을 증명할 수 있다'입니다.
그리고 만약 확장이 안전을 보장할 수 있는
능력을 앞선다면, Anthropic은 훈련을 일시정지할
의향이 있다고 명확히 말합니다.
그들은 속도를 늦출 의향이 있고
서두르지 않을 것입니다.
이것을 구글이 Gemini를 출시했을 때
OpenAI에서 일어난 일과
비교해보세요.
샘이 코드 레드를 선언하고
ChatGPT 5.2의 출시를
가속화했다고 보고됩니다.
OpenAI 역사상 가장 빠른
전환 중 하나로 출시를 앞당겼습니다.
경쟁 압박이 닥쳤을 때, OpenAI는
속도를 높이는 역사를 가지고 있습니다.
Anthropic은 잠재적으로
속도를 늦추기로 거버넌스 구조와 함께 약속했습니다.
이것들은 서로 다른 인식론입니다.
이것들은 완전히 다른
세상을 보는 방식입니다.
그리고 여기 대부분의 사람들이 모르는 것이 있습니다.
다리오는 2016년에 연구 부사장으로
OpenAI에 합류했습니다.
그는 OpenAI의 원래 헌장을
작성하는데 도움을 주었습니다.
4년 동안 그는
GPT2와 GPT3을 구축하는 데
중심적인 역할을 했습니다.
궁극적으로 그는
Anthropic을 설립하기 위해 떠났는데
그것은 그가 다른 비전을 믿었기 때문입니다.
그의 장기적 관점과 더 일치하는
비전이었습니다. 우리는
AI를 세상에 출시하기 전에 위험을 제거해야 한다는
것이었습니다. 따라서 Anthropic은
다리오가 AI 안전 회사를 구축하려는
첫 번째 시도가 아닙니다.
실제로는 두 번째이고
그는 그것으로부터 배웠고 그래서
AI 인센티브가 매우 강력한 시대에
거버넌스 위기를 관리하기 쉽게 만들기 위해
견제와 균형을 갖춘 Anthropic을
구축했습니다.
이 전체 대화에서 내가 가장 흥미롭게 생각하는
것 중 하나는
이 회사들의 제품 비전이
안전과 실험에 대한 이러한 관점을 반영한다는 것입니다.
2026년에는 전문직 계층의 인지 노동을 위한
핵심 운영 체제가 되었습니다.
변호사가 잘못된 인용을 감당할 수 없을 때
그들은 클로드를 사용합니다.
개발자가 프로덕션 코드를 작성해야 할 때
그들은 클로드로 향합니다.
애널리스트가 시장 정보를 종합해야 할 때
맞습니다, 그들도 클로드를 사용합니다.
아이러니하게도, 컴퓨팅을 조작하는 방법으로
코드에 베팅하고 클로드 코드를 통해
그것을 올바르게 만들어낸 것입니다.
챗봇을 통해, 최근에는
크롬 확장 프로그램을 통해서 말입니다.
다리오가 해낸 것은
우리가 본 것 중 가장 범용적인
전문가들이 업무를 더 효과적으로
수행할 수 있도록 돕는
에이전트에 가까운 것을 만든 것입니다.
이러한 집중이 2025년 마지막 달과
2026년 1월에 우리가 본
클로드 코드 사용량의
엄청난 증가로 이어진 것입니다.
이제 OpenAI는 반대편에 베팅했습니다.
Y Combinator 같은 빠른 배포의
실험 아이디어가
실험을 배포하도록 권장하는
문화로 번역되었습니다.
그래서 근본적으로, 제가 보는 철학은
OpenAI가 인텔리전스를
인간 삶의 모든 것을 건드리는
수평적 인터페이스로 본다는 것입니다.
그래서 AI는 마치 소비자 슈퍼 앱처럼
취급됩니다.
비디오를 위한 Sora, 의료 상담을 위한
ChatGPT Health가 있습니다.
검색 통합이 있고, 음성도 있고,
ChatGPT에 이미지 생성 기능이 있습니다.
브라우저도 있습니다.
ChatGPT는 정말 챗봇이 아닙니다.
의사이고, 영화 제작자이고,
검색 엔진이고, 코딩 어시스턴트입니다.
모든 것입니다. 라이프 플레어입니다.
그리고 이것은 회사가 생각하는 방식,
샘이 출시에 대해 생각하는 방식으로
의도적으로 되돌아간다고 믿습니다.
출시하고, 무엇이 효과적인지 보고,
더블 다운하는 것입니다.
마치 OpenAI가 내부에서
일련의 Y Combinator 회사들을
인큐베이팅하고 있는 것 같습니다.
무엇이 효과적인지 시도해보고
효과적인 것은 확대하고
그렇지 않은 것은 축소할 것입니다.
이 두 제품 비전을 보면
우리가 더 이상
하나의 AI 경제에 있지 않다는 것을
알 수 있을 것입니다.
이것은 정말 큰 혁명입니다.
저는 편을 들거나
승자를 선택하는 데 관심이 없습니다.
AI에서 모든 사람이 승리할 만큼
충분히 큰 세상입니다.
우리는 더 이상 하나의 AI 경제에 있지 않습니다.
우리는 매우 다른 규칙으로
운영되는 최소 두 개의 경제에 있습니다.
첫 번째 경제는 풍부한 인텔리전스의
극도로 빠른 생성에 중점을 둡니다.
만약 당신의 업무가 결과물, 콘텐츠,
미디어, 초안, 창의적 탐구를
생산하는 것과 관련이 있다면,
그리고 코덱스를 통한 코드까지 포함한다면,
당신은 OpenAI의 세계에 살고 있습니다.
그들은 한계 비용을 0으로
몰아가고 있습니다.
그들의 전략적 명령은 가능한 한 많은
사용자 생활의 측면에서 ChatGPT 인터페이스를
확산시켜 깊은 습관적 채택을
유도하는 것입니다.
시장이 어떤 것이 유익하고
어떤 것이 자동으로 이길지 결정할 것입니다.
당신은 단지 가능한 한 빨리
다양한 사용 사례에서
채택을 위한 많은 기회를
만들려고 노력하는 것입니다.
이것이 OpenAI 전략에 대한
가장 명확한 설명이라고 생각합니다.
한편, 경제 2는 복잡성 관리에 관한 것입니다.
이것은 전문적인 업무 환경입니다.
만약 당신의 일이
판단력 행사를 포함하거나,
프로덕션 코드나 법적 분석,
또는 고위험 의사결정이나
오류가 비용이 많이 드는 것을 포함한다면,
당신은 종종 Anthropic의 세계에 살고 있습니다.
Claude는 전문가를 대체하지 않지만
증폭시키고 보강합니다.
그것은 전문가의 마음을 위한
자전거가 됩니다.
따라서 여기서 전략적 명령은
채택 품질입니다.
당신의 판단력을 향상시키고
보존하면서 AI와 협업하는 방법을
어떻게 배울 것인가?
이것이 Claude 경험의 비밀 소스의
상당 부분입니다.
이것들이 얼마나 다른지 보세요.
이제는 심지어 같은
사용자도 아닙니다.
두 회사가 모두 경쟁하고 있는 한 영역에서
차이점이 오해되고 있다고 생각하는 것을
지적하고 싶습니다.
Codex 대 Claude Code는
사람들이 생각하는 것만큼
직접적으로 경쟁하지 않습니다.
왜냐하면 Anthropic이
코드를 컴퓨팅 생태계 전반에서
무엇이든 할 수 있게 해주는 도구로
사용하는 데 초점을 맞추고 있기 때문입니다.
Claude Code는 앞서 비디오에서
언급했듯이 효과적으로
최초의 범용 에이전트가 되었습니다.
동시에 Codex는
특히 대규모에서
코드 품질에 집착해왔습니다.
Codex는 많은 문제에서
Claude Code만큼 빠르지 않지만,
OpenAI는
엔지니어와 사용자와의
YC 스타일의 깊은 상호작용을 통해,
특히 항상 사용하는
OpenAI 엔지니어들을 포함해서,
유용한 것을 만들기 위해서는
정확한 코드를 출시해야 한다고 내기했습니다.
그리고 조금 더 시간이 걸리더라도
정확성에 대한 확신이 높다면
그만한 가치가 있을 것이라고 봤습니다.
Codex는 고품질 코드 리뷰로
유명하고, 버그를 찾는 것으로
유명합니다. 사람들은 여전히
'Claude Code 코드를 Codex에
넣어서 리뷰받으면 도움이 될 것'이라고 말합니다.
그리고 제가 보는 것은
엔지니어들이 시간을 보낼 곳에 대한
현저히 다른 비전입니다.
정말 신중하게 계획하고
그다음 신중하게 Codex에게
문제를 주어 해결하게 할 것인가?
이런 서로 다른 회사들과 전략들이 우리의
시간과 업무에 직접적인 영향을 미치는
첫 번째 영역이 바로 코딩입니다.
2026년에는 '어떤 AI가 더 나은가'라는
질문을 그만두고 'AI로 어떤 일을 하고
있으며 무엇이 유용한가'를
묻기 시작했으면 좋겠습니다. 그렇게
경쟁적이지 말고요. 저는 샘이
풍요의 엔진이라고 할 수 있는
무언가를 만들었다고 생각합니다.
모든 곳에 지능이 있고, 배포를 통해
안전성이 나타나며, 매일 제품을
사용하고 유용한 피드백을 제공하는
수백만 명의 사용자가 있습니다. 그리고
모든 YC 훈련과 론칭 본능이 ChatGPT를
수억 명을 위한 슈퍼 앱으로
만들어가고 있습니다. 다리오는
판단력을 위한 정밀한 레버를
만들었습니다. 지능이 넓어지기 전에
먼저 깊어진 것처럼요. 그리고 그는
인공지능 세계의 궤도를 내부적으로
깊은 일관성을 가진 시스템으로
구부리는 데 집중하고 있습니다.
무결성을 가진 시스템, 구조를 가진
시스템, 그리고 도덕적 핵심을 가진
AI 말이죠. 그래서 그가 해온 모든
것이 Claude를 매우 중요한 업무를 위한
운영체제로 만들어왔습니다. 단순히
코딩 업무만이 아니라 지식 업무 전반,
법률 업무도 떠오릅니다. 이사회
자료를 만드는 일, 정확하고 올바른
것이 필요한 모든 일들 말입니다.
이제 둘 다 AI가 변혁적일 수 있다고
믿고, 둘 다 안전이 중요하다고
믿습니다. 하지만 인공지능에 대한
근본적으로 다른 접근 방식, 세상에서
안전을 달성하는 방법, 중대한 결과를
가져올 지능을 런칭하는 회사를
어떻게 운영해야 하는지, 속도와
신중함의 균형을 어떻게 맞출지에
대한 이런 차이들이 우리 전체 세계를
형성하고 있습니다. 저는 일반지능
경쟁은 언론이 좋아하는 주제이지만,
요즘은 점점 더 도움이 되지 않는
특성화라고 생각합니다. 자동차
시장에서도 같은 일이 일어났습니다.
자동차가 처음 출시되었을 때 어떤
차가 최고인지 얘기했습니다.
90년대 애플과 윈도우가 전쟁을
벌일 때도 둘 중 어느 게 최고인지
얘기했습니다. 하지만 우리가 성장하고
시장이 성숙해지면서 '어느 것이
최고인가'는 의미 없어졌습니다.
제품들이 서로 다른 요구를 충족하도록
차별화되었기 때문입니다. AI에서는
더 빠르게 그런 지점에 도달하고
있습니다. AI에서는 모든 것이 더
빠르기 때문입니다. 만약 모든 것을
터치하고 전체 생태계가 서로 소통하고
다양한 미디어와 형태에서 많은
것을 생성해야 하는 세계에 있다면,
당신은 아마 샘 알트만의 세계에
있을 겁니다. 만약 복잡성을 관리하고
매우 높은 판단력이 필요하며
당신의 사고를 증폭시켜야 하는
세계에 있다면, 당신은 종종
다리오의 세계에 있을 겁니다.
그리고 우리 중 많은 사람들이 둘 다에
있다는 걸 알고 있습니다. 그래서
저는 계속해서 여기에 오직 하나의
승자만 있다고 생각하지 않는다고
강조하고 있습니다. 하지만 서로 다른
철학을 이해하는 것은 가치가 있다고
생각합니다. 그것들이 우리가 얻게 될
제품의 종류를 형성하기 때문입니다.
Claude가 곧 이미지 생성기를
출시할 거라고 기대해서는 안 됩니다.
비디오 생성기도 기대하면 안 됩니다.
Claude는 집중된 회사입니다.
Claude는 계속해서 뛰어난 도구 호출
에이전트를 출시할 것입니다. 반면,
OpenAI는 계속해서 적극적으로
실험할 것으로 기대해야 합니다.
저는 OpenAI가 제작한 영화가 향후 몇
년 내에 애니메이션 상 경쟁에
참여할 것으로 예상합니다. 그들은
찾을 수 있는 모든 곳에서 계속해서
경계를 밀어붙일 것입니다. 그것이
회사로서 그들이 하는 일이기
때문입니다. 그들은 실험하고
추진하려고 노력합니다. 빠른
피드백을 얻으려고 하고 발전하려고
노력합니다. 교육 분야에서도,
건강 분야에서도 같은 것을
기대해야 합니다. 그리고 그들은
계속해서 출시할 것입니다.
사실상 그들은 AI의 Y 컴비네이터이기
때문입니다. 이 영상이 이 두
회사의 리더십이 어떻게 문화,
전략, 그리고 궁극적으로 우리 10억
명 이상이 매일 접촉하고 있는
AI를 형성하고 있는지에 대한
감각을 주었기를 바랍니다.
차이점을 이해하는 것은 가치가
있다고 생각하고, 그런 차이점들이
내년에 우리가 무엇을 기대할 수
있는지를 어떻게 형성하는지 이해하는
것도 가치가 있습니다. 궁금한데 당신은 OpenAI와 Anthropic 중 어느 쪽으로 기울어지시나요?