AGI: (다가오는 순간), 인간들은 ‘누가 소유할 것인가?’

채널 아이콘
AI Explained 구독자 323,000명

요약

이 영상은 인공지능, 특히 AGI(인공지능 일반)가 빠른 속도로 발전하면서 경제, 노동, 그리고 사회 전반에 미치는 영향을 다룹니다. 다양한 관점—미국 부통령의 낙관론, OpenAI CEO인 Sam Alman의 경고, 그리고 연구소와 산업계의 논쟁—이 소개되며, AI가 자본과 노동 간의 권력 균형을 뒤흔들 가능성을 설명합니다. 또한 투자 규모와 비용 효율성, 글로벌 경쟁, 국가안보 문제 등 AGI가 가져올 미래 변화에 대해 심도 있게 논의하며, 조기 개입과 대비의 필요성을 역설합니다.

주요 키워드

인공지능 AGI 강화학습 스케일링 법칙 투자 부의 재분배 국가안보 기술혁신 국제 경쟁 미래 준비

하이라이트

  • 🔑 인공지능 자동화가 빠르게 현실화되고 있으나, 누가 그 이익을 차지할지는 여전히 미지수입니다.
  • ⚡️ 미국 부통령은 AI가 노동자를 대체하지 않고 생산성을 높일뿐이라고 주장하는 반면, OpenAI CEO는 노동력이 자본에 밀릴 것이라고 경고합니다.
  • 🌟 Sam Alman의 여러 AGI 정의와 강화학습을 통한 자가 학습 능력이 AGI의 빠른 발전을 부각시킵니다.
  • 🚀 스탠포드 연구와 스케일링 법칙을 통해, 상대적으로 적은 비용으로도 AGI의 최첨단 성능에 도달할 수 있음을 시사합니다.
  • 📌 Elon Musk와 같은 거물들이 OpenAI의 지분과 통제권을 두고 경쟁하는 등, 부의 재분배와 권력 구조에 관한 논란이 팽배합니다.
  • 🌐 AGI로 인한 기술 발전은 상품 가격, 특히 사치품과 토지 가격에 영향을 줄 수 있으며, 이는 사회·경제 전반에 파장을 일으킬 전망입니다.
  • 💡 글로벌 국가 경쟁과 국가안보 위협, 그리고 AI를 통한 대규모 감시 및 경제 전쟁 가능성이 우려되며, 이에 따른 조기 개입의 필요성이 강조됩니다.

용어 설명

AGI (인공지능 일반)

인간이 수행하는 복합적 문제를 다양한 분야에서 해결할 수 있는 범용 인공지능을 의미합니다.

강화학습

AI가 시행착오를 통해 스스로 학습하는 기법으로, 자가 개선 능력을 부여합니다.

스케일링 법칙

모델 성능이 훈련에 사용되는 자원(계산량 등)의 로그 함수 관계로 향상된다는 이론입니다.

포스트 체이닝

모델이 후속 작업을 스스로 생성하며 학습하는 방식으로, 무한한 작업 시퀀스로 이어지는 기법입니다.

오픈 가중치

학습 모델의 파라미터가 공개되어 연구 및 개발에 활용되는 방식을 말합니다.

[00:00:00] 인공지능 자동화와 경제적 불평등

세계가 인공지능의 자동화 가능성을 인지하기 시작한 배경과 함께, AI가 가져올 노동과 자본 간의 새로운 권력 관계에 대해 소개합니다. 미국 부통령과 OpenAI CEO의 상반된 견해를 통해 논란의 시작점을 짚어봅니다.

인공지능의 자동화가 예상보다 빨리 진행되고 있지만, 그 혜택의 분배에 대해서는 아직 명확한 합의가 없습니다. 미국 부통령은 AI가 노동자를 대체하지 않을 것이라 하지만, OpenAI CEO는 노동력이 자본에 대한 영향력을 잃을 수 있다고 경고합니다.
머스크와 그의 동료들이 OpenAI 통제권에 대해 도전장을 내면서, AI 기술의 소유권을 둘러싼 경쟁이 심화되고 있습니다. 한편 스탠포드 연구진은 최고 수준의 AI 모델 개발이 20달러로 가능하다고 주장합니다.
[00:01:31] AGI의 정의 및 기술 발전

Sam Alman을 비롯한 여러 전문가들이 제시한 다양한 AGI 정의와, AGI가 인간 수준 이상의 문제 해결 능력을 어떻게 갖추게 될지 설명합니다. 이 과정에서 강화학습과 자가 개선 메커니즘의 역할이 강조됩니다.

AGI의 새로운 정의가 제시되었으며, 코딩 분야에서 AI 모델들이 인간 수준의 능력을 보이고 있습니다. O3 모델이 코드포스 ELO 랭킹 175위를 기록했고, 더 발전된 모델은 50위권 진입이 가능해졌습니다.
[00:02:30] 강화학습과 실제 응용 사례

AI가 단순 모방을 넘어 스스로 학습하며, 코딩, 진단, 자동화된 작업 등 다양한 분야에서 실제 응용 사례를 보여줍니다. 특히, 프로 토너의 활용 예시와 실제 진단 사례를 통해 AI의 실용적 진보를 확인할 수 있습니다.

AI는 의료 진단 분야에서도 성과를 보이고 있으며, 의사들도 생각하지 못한 진단을 제시할 수 있게 되었습니다. 현재 O3 모델이 20개 정도의 소스만으로도 이런 성과를 내고 있어, O5의 발전 가능성이 주목됩니다.
프롬프트 체이닝 기술이 한계에 도달하지 않고, 모델이 무한한 작업을 학습할 수 있는 단계로 발전했습니다.
웹 검색, 컴퓨터 사용, 글쓰기 등 다양한 작업을 강화학습을 통해 모델에게 가르치고 있습니다.
모든 벤치마크에서 포화상태에 도달했으며, 실제 병목은 평가 부분에 있습니다.
샘 알트만은 AI 모델의 지능이 투입 리소스의 로그값과 비례하며, 지능 향상의 사회경제적 가치는 초기하급수적으로 증가한다고 설명했습니다.
[00:04:28] 투자와 부의 재분배 문제

스케일링 법칙과 투자 효율성에 관한 논의를 통해, AI 발전이 적은 비용 투자로도 획기적 성과를 낼 수 있음을 설명합니다. 동시에, Elon Musk와 OpenAI 간의 지분 쟁탈전 등 부의 재분배 문제와 소유권 논란이 부각됩니다.

AI 투자가 10배의 수익을 가져온다면 투자를 멈출 이유가 없으며, OpenAI는 AGI를 통해 획득한 부를 인류에게 재분배하려는 계획을 가지고 있습니다.
일론 머스크가 OpenAI에 1000억 달러 규모의 인수 제안을 했으며, 이는 현재 OpenAI를 통제하고 있는 비영리 조직에 대한 제안이었습니다.
OpenAI는 비영리 지분을 400억 달러로 평가했지만, 머스크의 1000억 달러 평가는 법적으로 복잡한 상황을 만들 수 있습니다.
발표자가 DeepMind, OpenAI, Anthropic의 창립 비전과 변화 과정을 다룬 미니 다큐멘터리를 제작했다고 소개합니다.
샘 알트만은 AGI 시대에 대부분의 상품 가격은 하락하지만, 명품과 부동산 가격은 오히려 상승할 것이라고 예측했습니다.
[00:08:00] 시장 영향과 혁신적 제품

AGI 도래가 상품 가격에 미칠 영향과 함께, 사치품 및 토지 가격 상승 가능성이 언급됩니다. 또한, 하드웨어 디자인과 소규모 언어모델의 경쟁력을 통해 기술 혁신의 다양한 측면이 소개됩니다.

OpenAI가 조니 아이브와 협력하여 개발 중인 새로운 하드웨어 디바이스에 대해 알트만이 긍정적으로 언급했습니다.
OpenAI가 대형 언어 모델 출시 후 미니 버전을 오픈소스로 공개하는 방안을 고려 중이라고 밝혔습니다.
OpenAI의 미션은 AGI가 전 인류에게 혜택을 주는 것이라고 명시되어 있으나, 초기의 재정적 수익 무관 조항은 삭제되었습니다.
대부분의 인간 노동이 불필요해질 수 있는 상황에서, 전 인류에게 혜택을 주겠다는 목표 달성에 대한 의문이 제기됩니다.
한 국가가 AGI나 초지능을 먼저 개발할 경우, 직접적인 충돌보다는 다른 국가들의 경제를 무력화시킬 가능성이 높습니다.
AI 기술을 보유한 기업들이 낮은 수준의 AI만 공개하고 강력한 AI는 독점하여, 기존 시스템들과 경쟁하며 다른 국가들의 경제를 위협할 수 있습니다.
[00:11:16] 국제 경쟁과 국가안보 위협

AI 기술이 국가 간 경쟁 및 경제 전쟁, 감시 체제 강화로 이어질 수 있는 가능성을 탐구합니다. 글로벌 권력 재편과 함께, 국가안보 및 사회적 불안정 요소에 대한 우려가 제기됩니다.

이는 AI 개발에서 뒤처진 국가들에게 실존적 위협이 되며, 이를 따라잡기 위해서는 국가들의 연합으로도 수년이 필요할 것입니다.
구글의 새로운 모델들(Gemini 2 Pro, Flash, Gemini Thinking)은 양호한 성능을 보이지만, 최상위 모델들의 수준에는 미치지 못합니다.
Gemini의 성능에 대한 평가: PDF 및 파일 읽기에 뛰어나지만, 오디오 전사나 코딩 능력은 경쟁사 대비 부족함. 하지만 저렴한 가격이 장점
ChatGPT가 트위터를 제치고 6위 방문 사이트가 되면서, 구글의 Gemini 3 개발을 위한 투자 증가 예상
AI의 권위주의적 통제 수단화와 국가 안보 위협에 대한 랜드 연구소의 우려 분석
미국의 AGI 발전이 가져올 실업과 사회 불안에 대한 우려, 알트만의 과거 발언 회고
스탠포드의 S1 개발 사례: 저비용으로 고성능 AI 모델 개발 가능성 입증
모델이 종료하려 할 때마다 강제로 계속 생성하도록 했으며, 이는 마치 시험에서 답을 쓰려 할 때마다 '잠깐만'이라는 목소리가 들리는 것과 같았습니다.
이러한 '테스트 시간 스케일링' 방식으로 각 질문에 사용되는 토큰 수를 확장했고, Math 500 벤치마크와 GPQA Diamond에서 PhD 수준의 성과를 달성했습니다.
이 오픈 웨이트 모델은 단 천 개의 문제로 훈련되었으며, OpenAI의 차트를 재현하는 것이 목표였습니다.
S1 논문에서는 이전의 많은 시도들이 테스트 시간 스케일링을 재현하지 못했다고 언급했습니다.
59,000개의 고난도 문제를 수집하고 Gemini를 사용해 추론 과정을 생성했으며, 효율성을 위해 1,000개의 문제만 선별했습니다.
문제 선별 과정에서는 데이터 오염 제거, 이미지 의존성 제거, 그리고 난이도와 다양성을 고려한 필터링을 실시했습니다.
연구팀은 수학과 과학 분야에서 50개 영역의 20개 질문을 선정하고, Gemini의 추론 과정이 포함된 1000개의 예시로 기본 모델을 미세 조정했습니다.
모델이 스스로 출력을 검토하고 개선할 수 있도록 '잠깐' 명령어를 사용해 2~6번까지 반복 학습을 진행했습니다.
GPQA와 대회 수준의 수학 문제 해결에서 놀라운 성과를 보였지만, 다른 분야에서는 상대적으로 성능이 떨어질 수 있습니다.
오픈 데이터는 미세조정에 사용된 1000개의 예시만을 의미하며, Qwen-2.5 320억 파라미터 기본 모델의 학습 데이터는 공개되지 않았습니다.
카파시는 ChatGPT 관련 영상에서 컨텍스트 윈도우 확장이 여전히 열린 연구 과제라고 설명했습니다.
이 영상은 GiveWell의 후원으로 제작되었으며, 13년간 실제로 활용해온 엄격한 자선단체 평가 시스템을 소개합니다.
에세이의 마지막 부분에서 사만은 자본과 노동의 권력 균형 붕괴에 대해 논하며, 이에 대한 조기 개입의 필요성을 강조했습니다.
AGI가 2-5년 내에 도래할 것으로 예상되는 상황에서, 즉각적인 조기 개입이 필요하지만 구체적인 준비 방안을 제시하기는 어려운 상황입니다.
[00:21:11] 미래 준비와 초기 개입의 필요성

빠르게 다가오는 AGI 시대에 대비한 사회적, 정책적 준비의 중요성이 강조됩니다. 미래의 불확실성을 극복하기 위한 조기 개입과 국제 협력의 필요성이 촉구됩니다.

Anthropic CEO 다리오 아마데는 2026-2027년경 AI가 '데이터센터의 천재들의 나라'가 될 것이라 경고하며, 정부의 더 강력한 규제와 위험 관리를 촉구했습니다.
세상이 이제야 깨닫기 시작한 것 같습니다
인공지능이 예상보다 훨씬 빨리 자동화될 것이라는 사실을
몇 년 전만 해도 상상도 못했던 속도로
하지만 아직도 한 가지를 간과하고 있습니다
그 혜택을 누가 가져갈 것인가 하는 점입니다
바로 오늘 미국 부통령은
AI가 절대 노동자를 대체하지 못하고
생산성만 향상시킬 것이라고 말했습니다
반면 OpenAI의 CEO 샘 알트만은
바로 어제 노동력이 자본에 대한 영향력을 잃을 수 있다고 썼고
유명 싱크탱크 랜드는
얼마 전 보고서를 통해
세계가 아직 준비되지 않았다고 했습니다
일자리 손실과 사회 불안에 대해
이는 더 발전된 인공지능이 가져올 수 있는
범용 인공지능과 함께 올 변화입니다
하지만 노동력이 영향력을 잃더라도
자본가들이 수익 분배를 마음대로 결정할 순 없습니다
오늘 머스크와 그의 동료들이
샘 알트만과 마이크로소프트를 상대로 OpenAI 통제권에 대해 도전장을 냈고
물론 이런 연구 논문들도 있습니다
스탠포드의 이 논문처럼
최고 수준의 모델에
필요한 추론 능력 향상이
단 20달러로 가능하다는 주장도 있어서
여러분도 AGI를 감당할 수 있을 것 같네요
한편 Claude를 만든 Anthropic의 CEO 다리오 아모데이는
AGI를 통제할 시간이 얼마 남지 않았다고 말합니다
저는 단지 바랍니다
인공지능이 완전히 자동화되는 날이 불가피하게 왔을 때
우리가 지금보다는
좀 더 단합된 모습을 보였으면 합니다
다룰 내용이 너무 많아서
가장 흥미로운 7가지 발전 사항만
다뤄보도록 하겠습니다
샘 알트만의 에세이를
시작점으로 삼아
각각의 사항들을 살펴보겠습니다
우선 그는 AGI에 대한
다섯 번째, 아니 어쩌면 15번째 정의를 내렸는데
이번에는 이렇습니다
점점 더 복잡한 문제를 다룰 수 있는 시스템으로
여러 분야에서 인간 수준의 능력을 보이는 것
이런 정의로 본다면 우리는
꽤나 가까이 와 있습니다
코딩을 예로 들어보면
12월에 O3 모델이 코드포스 ELO 랭킹에서 175위를 기록했고
많은 사람들에게는 큰 의미가 없을 수 있지만
바로 어제 일본에서
샘 알트만이 밝힌 바로는
내부적으로 50위권 수준의 성적을 내는 모델이 있다고 합니다
이제 우리는 명백히 모방 학습을 넘어섰습니다
이 시스템들, O1, O3, O4는
상위 50위권 경쟁자들의 코드를 단순히 복사하는 게 아닙니다
코딩에서 그들은 스스로 시도하고
강화학습을 통해
스스로를 가르치고 있습니다
무엇이 효과가 있는지
우리는 인간 수준에 머물러 있지 않으며
이는 코딩에만 국한되지 않습니다
코딩뿐만이 아닙니다
저는 이번 주에 OpenAI의 딥 리서치를
프로 티어로 사용해서 친척의 진단을 도왔는데
의사 한 분이 자신도 생각하지 못했던 부분을
AI가 발견했다고 말했습니다
물론 가끔 환각을 일으키기도 하지만
동시에 우리가 생각하지 못한
부분도 찾아냅니다
그리고 이것은 O3가
겨우 20개 정도의 소스만 검색한 결과입니다
O5가 500개의 소스를 검색한다면 어떨까요?
'지식을 아는 건 좋지만
사무직 근로자들은 실제로
컴퓨터로 작업을 한다'고 말할 수 있겠지만
OpenAI의 카리나 넨은 이런 작업에 대해 이렇게 말합니다
모든 벤치마크에서 최고 성능을 보이고 있다고
그리고 프롬프트 체이닝 자체는
한계에 부딪히지 않고 있습니다. 우리는
원시 데이터 사고에서 특징 모델링을 거쳐
모델이 무한한 작업을 학습할 수 있는 단계로 발전했습니다
프롬프트 체이닝 세계에서
강화학습을 통해
예를 들어, 웹 검색 방법이나
컴퓨터 사용법, 글쓰기 등
모든 종류의 작업을 수행할 수 있습니다
모델에게 다양한 기술을
가르치려고 시도하고 있죠
그래서 우리가 말하는 것처럼
데이터 한계가 없다고 하는 겁니다
무한한 양의 작업이 있을 것이고
이를 통해 모델이
초지능적이 되어가고 있습니다
모든 벤치마크에서 포화상태에 도달하고 있어서
실제로 병목현상은
평가에 있다고 생각합니다
현재 그들의 운영 시스템이
월 200달러의 프로 버전으로만 이용 가능하고
다소 불안정함에도 제가 이를 믿는 이유는
온라인 구매나
스프레드시트 작성 같은 작업들이
대부분 검증 가능하기 때문입니다
검증 가능하거나 확인 가능하다는 말을 들으면
강화학습이 완전히 흡수할 준비가 된 것이라 생각하세요
코드 영역처럼 말이죠
강화학습의 발전 효과를 볼 수 있는
GPT-4 0.1 프리뷰에서 0.3까지의 변화처럼요
다음은 이 모든 것을 실현하기 위해
필요한 투자입니다. 샘 알트만은
에세이 후반부에서 이렇게 말했습니다
지능 향상을 예측하는 스케일링 법칙은
여러 규모에 걸쳐
정확했다고 합니다
AI 모델의 지능은
대략 학습과 실행에 사용된
리소스의 로그값과 같습니다
즉, 지능을 한 단계 높이기 위해
투입하는 리소스가 기하급수적으로 증가한다는 뜻이죠
그리 인상적으로 들리지 않을 수 있지만
세 번째 포인트를 읽어보면
저도 동의하는 부분인데
선형적으로 증가하는 지능의
사회경제적 가치는
초기하급수적이라는 것입니다. 간단히 말해서
만약 누군가가 GPT-4 0.3의 지능을
두 배로 높일 수 있다면, 그 가치는 4배가 아니라
제게, 그리고 많은 사람들에게
그보다 훨씬 더 클 것입니다
초기하급수적이죠. 그는 계속해서
이로 인해 우리는
기하급수적으로 증가하는 투자가
가까운 미래에 멈출 이유가 없다고 봅니다
다시 말해, AI가 항상 투자 대비
10배의 수익을 가져다 준다면
투자를 멈출 이유가 없죠. 많은 사람들이 잊고 있지만
2년도 채 되지 않은 전에 알트만 본인이
OpenAI가 AGI 개발을 통해
세계의 부 대부분을 확보한 뒤
이를 인류에게 재분배하는 것이
자신의 원대한 구상이라고 말했습니다
우리가 얘기하는 규모는
1천억이 아닌 1조 또는 100조 달러입니다
이는 그의 말에 따른 것이며
만약 AGI가 그런 부를 창출한다면
회사가 어떻게
이를 재분배할지는 확실치 않다고 합니다
규모를 이해하기 쉽게 말하면, 100조 달러는
전 세계 노동력 전체의
규모와 맞먹는 수준이고
이는 당연히 다른 이들이
그가 그런 통제력을 갖는 것을 원치 않는
아니면 그들 스스로 그 통제권을 원할 수도 있죠
여러분도 들으셨겠지만, 일론 머스크가
OpenAI에 거의 1000억 달러를 제안했습니다
정확히는 OpenAI를 통제하고 있는
비영리 조직에 대한 제안이었죠
여러 보고서를 읽지 않으셔도 되도록
요약하자면, 샘 알트만과
OpenAI는 이 비영리 지분을
약 400억 달러로 평가했습니다
이는 마이크로소프트와
OpenAI 직원들을 포함한
지분이 충분히 남아있다는 의미입니다
하지만 머스크와 다른 이들이 이 지분을 1000억 달러로 평가한다면
법정에서 알트만과 그의 팀이
400억 달러라고 주장하기 어려울 수 있습니다
그래서 그들이 머스크의 제안을 거절했다 하더라도
이는 그들로 하여금
마이크로소프트와 직원들이 보유한
지분을 희석시켜야 할
가능성을 만들었습니다
알트만은 OpenAI 직원들에게 이것이
우리가 큰 진전을 이루고 있기 때문에
우리를 약화시키려는 조세 전략일 뿐이라고 말했습니다
OpenAI 뒤의 비영리 조직이
머스크의 손에 AGI가 안전하지 않을 것이라고
판단해 제안을 거절할 수도 있습니다
이 시점에서 제가 어제
패트리온에 공개한
미니 다큐멘터리를 잠깐 소개하고 싶네요
실제로 DeepMind의 시작 이야기를 다루고 있고
OpenAI, 머스크와의 갈등
Anthropic, 그리고 각 AGI 연구소들의
창립 비전이 어떻게 달라졌는지를 다룹니다
이번에는
전문 영상 편집자를 고용했고
초기 리뷰들이 좋은 것 같네요
OpenAI의 비영리 조직에서
벌어지고 있는 모든 난장판은
별도의 영상으로 다룰 만한 가치가 있어 보입니다
그래서 지금은 다음 주제로 넘어가겠습니다
샘 알트만은 AGI의 도래와 함께
대부분의 상품 가격이
결국 크게 하락할 것이라고 예측했습니다
일자리를 잃거나 임금이 하락하는 사람들을
달래는 한 방법이 될 수 있겠죠
'최소한 TV는 더 저렴해질 테니까요'
하지만 그는
명품과 부동산 가격은 오히려 더 크게 오를 수 있다고 했습니다
여러분은 어떻게 생각하시는지 모르겠지만
제가 사는 런던은 이미 부동산 가격이
엄청나게 비싼데
AGI 이후에는 어떻게 될지 모르겠네요
명품에 대해 말하자면
알트만이 특정 명품을
염두에 두고 있는 것 같습니다. 어제 런던에서
애플 출신의 조니 아이브가 참여한
하드웨어 디바이스에 대해 질문을 받았는데
'정말 믿을 수 없을 정도로 대단하다
자부심을 느끼며, 출시까지
1년밖에 남지 않았다'고 했죠
참고로 저도 그 행사에 지원했지만
특정 조직 ID가 필요했는데 저는 없었습니다
명품이 아닐 수 있는 것 중 하나는 작은 규모의
언어 모델인데요, 같은 행사의 유출된 오디오에서
그가 말하길 '한 가지 아이디어는
GPT-3를 출시하고 나서
GPT-3 Mini를 오픈소스로 공개하고, GPT-4도 마찬가지로
GPT-4 Mini를 공개하는 것'이라고 했습니다
아직 확정된 것은 아니지만
방향성으로 이런 것을 생각해볼 수 있다고
말했습니다. 다음 논점은
실제로 이 에세이의
첫 문장에서 나오는데
OpenAI의 미션은 확실히 하는 것입니다
AGI가 전 인류에게 혜택을 주도록 하는 것이
AGI를 만드는 것이 아니라, AGI를 만들어서
전 인류에게 혜택이 되도록 하는 것입니다.
제가 다큐멘터리에서 다뤘듯이
초기 설립 당시 헌장에는
재정적 수익에 구애받지 않고
전 인류에게 혜택이 되는 AGI를
만들겠다고 했지만, 그 마지막 부분은
사라졌습니다. 하지만 여전히 전 인류에게
혜택이 된다는 부분은 남아있죠. 대다수가 아닌
전 인류에게 혜택이 되어야 한다는 것입니다.
하지만 그들 스스로도 인정하듯이
이것을 어떻게 달성할 수 있을지
의문입니다. 대부분의 인간 노동이
곧 불필요해질 수 있다고 할 때,
미국에서 모든 사람을 돌보는
자비로운 정책을 시행한다 해도
다른 국가들에 대해서는
어떻게 보장할 수 있을까요?
AI의 대가 중 한 명인
요슈아 벤지오의 영상을 보고
이런 생각이 들었습니다.
만약 어떤 국가가 다른 국가보다
1개월, 3개월, 6개월 먼저
AGI나 초지능을 개발한다면
그들이 그 우위를 이용해
다른 국가들을 직접적으로 제거하진 않을 것 같습니다.
오히려 다른 국가들의 경제를
무력화시킬 가능성이 높죠. 미국이
중국의 경제를 자동화하거나,
또는 중국이 미국의 경제를 장악하여
그 부를 자국민들에게
분배할 수 있습니다. 벤지오는 이것이
기업 수준에서도
적용될 수 있다고 봅니다.
여러 선언문들을 보면
논리적으로 이해가 되는데
OpenAI와 같은 시스템을 통제하는
사람들이 단순히 AI 접근권을
판매하는 것에 그치지 않고
낮은 수준의 AI만 공개하고
정말 강력한 AI는
자신들만 보유한 채
가장 강력한 AI는 독점하고
이를 이용해
기존 시스템들과 경쟁할 기업들을
설립할 것입니다. 결과적으로
이런 시스템을 가지지 못한
다른 모든 국가들의 경제를
무력화시킬 것입니다.
이것은 초지능 시스템을
개발하지 못하는 국가들에게는
실존적 위협이 될 것이고
이런 수준의 AI를 개발하지 못하는
국가들에게는 실존적 위협이 됩니다.
이는 긴급한 문제입니다. 왜냐하면
이를 따라잡으려면
의지있는 국가들의 연합으로도
최소 수년이 걸릴 것이기 때문입니다.
그리고 잠깐 언급하자면
경쟁사 이야기가 나와서
구글의 새로운 모델인 Gemini 2 Pro와
Flash를 말씀드리고 싶습니다.
물론 Gemini
Thinking도 있는데, 이는
Claude-3-mini나 DeepSeek R1의
추론 과정을 복제합니다.
이 모델들의 벤치마크 결과는
괜찮지만 특별히 뛰어나진 않습니다.
Claude-3나 DeepSeek R1 수준은
아니며, Simple Bench에서는
제한적인 수준을 보여줍니다.
Thinking 모드와 Gemini 2 Pro의 점수는
비슷한 수준에 머물 것으로 보입니다.
저는 Gemini 실험 버전 126에 대해
이렇게 말씀드리고 싶습니다. 약간 틈새 시장이긴 하지만
Gemini는 PDF와 다른 파일들을 빠르게 읽는 데 놀라울 정도로 뛰어납니다.
하지만 오디오 전사(Transcription) 정확도는
제가 테스트해본 결과
Assembly AI 수준에는 미치지 못하고
코딩 능력도 Claude 3 수준이 아니며
'심층 연구' 기능도 실제 심층 연구와는 거리가 있습니다.
하지만 Gemini 시리즈는
파일에서 텍스트를 추출하는 데 탁월하고
매우 저렴한 가격이 장점이라
상당히 인상적입니다.
최근 ChatGPT가 트위터를 제치고
6번째로 방문이 많은 사이트가 되었고
점차 구글을 따라잡고 있는 상황에서
구글이 Gemini 3를
최첨단 기술로 만들기 위해
계속해서 투자를 늘릴 것으로 예상됩니다.
다음으로, 한 사람이 언급한
AI가 권위주의 정부에 의해
대중 감시와 자율성 상실을 통해
국민을 통제하는 데 사용될 것이라는
가능성에 대한 경로를 설명했는데
이는 제가 전체를 읽은 랜드 연구소의 보고서와 연결됩니다.
그들은 권위주의 독재 정권의
대규모 감시뿐만 아니라
다른 '국가 안보' 위협도
우려하고 있습니다. 특히 '원더 웨폰'과 권력 구조의 체계적 변화,
앞서 언급했던 것처럼
중국이 미국 경제를 자동화하는 것과
비전문가들이 대량살상무기를
개발할 수 있게 되는 것,
인공지능 에이전트의 자율성
(Claude 6처럼 스스로 깨어나는 것) 등이 포함됩니다.
이는 75년 이상의 역사를 가진
랜드 연구소의 의견인데,
과장된 발언을 하지 않는 것으로 알려진 기관입니다.
하지만 제가 묻고 싶은 것은
만약 미국이 '대규모 국가적 노력'을 통해
중국보다 3개월 또는 6개월 먼저
AI 기반 원더 웨폰을 확보한다면
그것을 실제로
중국의 기술 산업을 무력화하는 데
사용할 것인가 하는 점입니다.
제가 보기에 진짜 중요한 인정은
이 보고서 말미에 나옵니다.
미국이 광범위한 실업과
그에 따른 사회 불안 없이는
AGI의 야심찬 경제적 이익을
실현하기 어려운 위치에 있다는 것입니다.
저는 아직도 기억합니다.
약 2년 전 알트만이
인터뷰에서 했던 말을
그는 'AGI가 예상대로 불평등을 초래한다면
사람들이 더 이상 참지 않을 것'이라고 했습니다.
이제 AGI가
국가나 기업의 통제를 벗어날 수 있다는
몇 가지 징후를 살펴보겠습니다.
연구 시간을 제외하고 50달러 미만의 컴퓨팅 비용,
실제로는 약 20달러로
여러분 모두가 감당할 수 있는 비용으로
스탠포드가 S1을 개발했습니다.
물론 그들은 Qwen 2.5 320억 파라미터의
오픈웨이트 기반 모델을 활용했지만
주목할 점은 단 1000개의 문제 데이터로
이 작은 모델을
Claude 1과 경쟁할 수 있는 수준으로 끌어올렸다는 것입니다.
이는 과학 GPT와 수학 분야의
경쟁 수준에서의 이야기입니다.
핵심 방법론은 모델이 멈추려고 할 때마다
문자 그대로 'wait'라는 토큰을 추가해
계속 진행하도록 강제한 것이었습니다.
모델의 생성 결과에 'wait' 토큰을
반복적으로 추가했습니다.
모델이 생성을 여러 번 반복할 때
끝내려고 할 때마다, 마치 시험을 보는 것처럼
답을 찾았다고 생각하고
답을 적으려 할 때마다
머릿속의 목소리가 '잠깐만' 하는 것과 같죠
이런 식으로 진행되었고
학생이나 여러분이 문제에 대해
정해진 시간을 할애할 때까지 계속됩니다
이를 테스트 시간 스케일링이라고 하는데
각 질문에 사용되는 토큰 수를
확장하는 것을 의미합니다
제가 Math 500 벤치마크의 문제들을
검토해봤는데 정말 어려운 문제들입니다
95% 이상을 받기는 쉽지 않죠
특히 레벨 5 문제들은
정말 인상적인 성과입니다
마찬가지로 GPQA Diamond에서
60% 이상을 받는다는 것은
해당 분야의 PhD 수준과 맞먹습니다
요약하자면, 이것은 오픈 웨이트 모델로
단 천 개의 문제와
추론 트레이스로만 훈련되었습니다
스탠포드 팀에는 유명한 교수들이 있었고
그들의 목표는
오른쪽의 차트를 재현하는 것이었습니다
이 차트는 OpenAI가 9월에 발표한 것인데
우리는 이미 알고 있죠
사전 학습과 강화학습을
더 많이 할수록
성능이 향상된다는 것을
하지만 실제 문제 해결 시간은
어떨까요? 테스트 시간 연산이
바로 그들이 재현하고자 한
차트입니다
S1 논문으로 돌아가보면
수많은 0-1 복제 시도에도 불구하고
명확한 테스트 시간 스케일링 동작을
재현한 사례가 없었다고 합니다
그들의 접근 방식을 단순화해서 설명하면
제가 더 관심 있는 발견에 초점을 맞춰
설명하자면
그들은 59,000개의 어려운 문제를 수집했습니다
물리 올림피아드, 천문학 대회 수준의
수학과 AGI 평가 문제들이었죠
거의 2년 전에 이 채널에서
다뤘던 내용인데
DeepSeek R1처럼
사고 토큰을 출력하는 Gemini를 사용해
추론 과정과 답변을 생성했습니다
59,000개 예제 각각에 대해
모든 예제로 학습할 수도 있었지만
그것은 큰 이점을 주지 않았습니다
천 개만 선택하는 것과 비교해서
단 천 개의 예제만으로
해당 도메인에서 작은 모델을
진정한 추론가로 만들 수 있었고
웨이트 트릭을 사용해
충분히 생각하게 했습니다
59,000개에서 1,000개로 줄이는 방법은
우선 오염을 제거했습니다
모델을 테스트할 때 사용할
문제들은 제외해야 했죠
문제에 없는 이미지에 의존하는
예제들도 제거했고
다른 형식적인 것들도 정리했습니다
더 흥미로운 것은 난이도와 다양성인데
이런 종류의 다양성은
JD Vance도 지지할 만한 것이었죠
난이도 측면에서는 작은 모델들에게
문제를 풀게 했고
작은 모델들이 맞힌 문제는
너무 쉽다고 판단해 제외했습니다
다양성 측면에서는 가능한 많은 주제를
수학과 과학 분야에서 가능한 많은 주제를
예를 들어, 그들은 50개의 서로 다른 영역에서
약 20개의 질문을 선정했고
그 다음 기본 모델을
Gemini의 추론 과정이 포함된
천 개의 예시로 미세 조정했습니다
DeepSeek-R1에 대해 궁금하시다면
80만 개의 예시로 미세 조정을 했죠
오른쪽 차트에서 확인할 수 있습니다
단순한 미세 조정이 아니었고
모델이 멈추려 할 때마다
'잠깐'이라고 말하며
2번, 4번, 때로는 6번까지
성능을 계속 향상시켰습니다
기본적으로 모델이 자신의 출력을 검토하고
개선할 수 있는지 확인하도록 합니다
여기서 '잠깐'이라는 말은 중립적이에요
모델에게 틀렸다고 말하는 게 아니라
다시 한번 확인해보자는 의미입니다
다수결 투표나 자기 일관성을
확장해보려고 시도했지만
같은 효과를 보지는 못했습니다
하지만 시청자 여러분께서는
GPQA(Google Proof Question and Answer)에서
이런 점수를 얻는 것과
대회 수준의 수학 문제를 푸는 것이
얼마나 대단한 일인지 아셔야 합니다
물론 같은 모델을 다른 분야에
테스트하면 상대적으로
성능이 떨어질 수 있죠
참고로 '오픈 데이터'라고 할 때는
기본 모델을 미세 조정하는 데 사용된
천 개의 예시를 의미합니다
실제 기본 모델은 오픈 데이터가 아니에요
진정한 의미의 오픈 데이터가 아닌 게
기본 모델에 무엇이 들어갔는지
Qwen-2.5 320억 파라미터가
어떻게 학습됐는지 모르기 때문이죠
흥미로운 점은
더 발전시키고 싶었지만
언어 모델의 컨텍스트 윈도우가
제약이 되었다는 겁니다
카파시가 이번 주 ChatGPT 영상에서
컨텍스트 윈도우를 적절히 확장하는 방법이
아직 열린 연구 과제라고 얘기했죠
3시간 30분짜리 영상이지만
제가 강력히 추천하는 영상입니다
카파시의 이 논문에 대한
반응이 재미있었는데요
'단계별로 생각해보자'는
트릭이 생각난다고 했습니다
모델에게 단계별로 생각하라고 해서
답을 주기 전에 더 많은 토큰을
추론에 사용하게 하는 방식이죠
여기서는 '잠깐'이라고 하여
모델이 더 오래 생각하도록 만듭니다
그는 언어 사전 지식을 활용해
생각을 이끌어낸다고 말했습니다
카파시의 영상을 보며 시간을 잘 쓰는 것처럼
GiveWell을 통해 어떤 자선단체에
기부할지 연구하는 것도
돈을 잘 쓰는 방법입니다
이 영상의 스폰서이기도 하지만
제가 13년 동안 실제로 이용해 온 곳입니다
매년 6만 시간 이상의 연구를 통해
어떤 자선단체가 가장 많은 생명을 구할 수 있는지
매우 엄격한 방법론으로 평가합니다
제가 13년 동안 계속 지원해 온 곳은
Against Malaria Foundation입니다
영국에서 시작된 것으로 알고 있는데
GiveWell을 한번 확인해보세요
링크는 설명란에 있고
여러분이 처음 알게 된 경로도
여러분이 어디서 처음 들으셨는지
당연히 AI Explained라고 적으실 수 있지만
이제 마무리를 해야 할 시간이네요.
사만의 에세이에서 마지막으로 짚고 싶은
한 가지 포인트가 있습니다.
그의 이전 에세이들에서는
노동의 가치가 제로가 되는 것에 대해 이야기했는데
이번에는 자본과 노동 사이의
권력 균형이 무너지는 것에 대해 다루고 있습니다.
흥미롭게도 그는 이것이 조기 개입이
필요할 수 있다고 덧붙였습니다. OpenAI는
UBI에 대한 연구를 진행했는데, 결과는 좀 복잡했죠.
흥미로운 점은 그가
보편적 기본소득을 직접적으로
옹호하지는 않았다는 것입니다.
대신 조기 개입에 대해 이야기하고
컴퓨팅 예산과 이상한 아이디어들에 대해
열린 자세를 가질 것을 언급했습니다.
만약 AGI가 2-5년 안에 온다면
'조기 개입'이라는 것은
지금 당장 시작되어야 할 것입니다. 솔직히
이 시점에서 저는
다가올 미래에 대한 준비가 절실히
필요하다고 느끼지만, 구체적으로
어떤 준비를 해야 할지 말하기는 어렵습니다.
오늘도 Anthropic의 CEO인
다리오 아마데가 새로운 경고를 했습니다.
AI가 데이터센터 안의
천재들의 나라가 될 것이라고 말이죠.
아마도 2026년이나 2027년, 늦어도
2030년까지는 그렇게 될 거라고 합니다.
그는 정부가 대형 AI 연구소들에 대해
충분한 책임을 묻지 않고 있으며
위험을 측정하지 않고 있다고 했습니다.
이번 주에 있었던
국제 정상회담에서처럼
이런 놓친 기회를 반복해서는 안 됩니다.
이런 이슈들이 최우선 순위가 되어야 하며
AI의 발전은 새로운 글로벌
도전과제를 제시하고 있습니다. 우리는 더 빠르고
명확하게 대응해야 합니다.
저와 여러분 많은 분들이 생각하시듯이
변화는 매우 빠르게 다가오고 있으며
대부분의 사람들이 생각하는 것보다
훨씬 더 빨리 올 것입니다.
제가 고민해봐야 할 질문은
우리가 이것에 대해 무엇을 할 수 있는가입니다.
여러분의 생각을 댓글로 남겨주세요.
끝까지 시청해주셔서
정말 감사합니다. 좋은 하루 보내세요.