[00:00]
Sam Altman이 세 가지 중요한
[00:02]
관찰 결과를 자랑했는데, 핵심은
[00:04]
AGI가 코앞에 와 있다는 것입니다.
[00:06]
이전 영상에서 우리는
[00:08]
초인적인 코딩 에이전트의 등장에 대해 이야기했습니다.
[00:12]
얼마 전까지만 해도 OpenAI의 첫 추론 모델은
[00:14]
세계에서 백만 번째로 뛰어난 코더였는데,
[00:17]
당시에는 그것도 꽤 대단한 일이었죠.
[00:19]
'AI가 코딩을 할 수 있고,
[00:21]
세계 백만 등 수준이야!' 하면서요.
[00:23]
그 다음 GPT-4 0.1은 제가 생각하기에,
[00:27]
그가 언급한 0.1은
[00:28]
세계 1만 등 수준의 코더였습니다.
[00:31]
물론 2024년 9월 출시 전에
[00:34]
이미 개발 중이었고,
[00:35]
그때 우리가 접근할 수 있게 되었죠.
[00:38]
2025년 1월에는 0.3 미니가 나오는데,
[00:42]
0.3은 세계 175위 수준이라고 했습니다.
[00:45]
현재 그들이 내부적으로 가지고 있는
[00:46]
모델은 세계 50위 수준이고,
[00:49]
그는 앞으로
[00:50]
세계 최고 수준에 도달할 것이라고
[00:53]
말했는데, 이는 그들의 내부 모델이나
[00:56]
2025년 말까지 출시할
[00:57]
모델을 통해서일 것입니다. 이는 실질적으로
[01:01]
초인적인 코더가 될 것입니다. 여기서 그는
[01:04]
이것이 어떤 모습일지에 대해
[01:07]
더 자세히 설명하는데, Sam Altman과
[01:09]
OpenAI의 한 가지 특징은
[01:11]
이 기술을 점진적으로
[01:13]
소개하면서 동시에
[01:15]
새로운 아이디어도 조금씩 소개한다는 것입니다.
[01:17]
이런 아이디어들이 새로운 건 아니에요.
[01:18]
AI 분야에서는 오랫동안
[01:20]
논의되어 왔지만, 이 기술이 서서히
[01:23]
우리 세계로 스며들면서
[01:26]
우리는 그 현실과
[01:28]
마주하게 되고 있습니다.
[01:30]
Sam Altman의 최근 블로그 포스트를 보면
[01:31]
이것이 바로 주요
[01:33]
아이디어이며, 이를 통해
[01:36]
앞으로의 방향을 이해할 수 있습니다.
[01:38]
이것이 Codeforces ELO
[01:41]
등급인데, 이는 코딩 과제에서
[01:43]
얼마나 잘하는지를 보여줍니다. 이것은
[01:46]
벤치마크이고, 광범위한 소프트웨어 공학 문제가 아닌
[01:48]
특정한 연습 문제들입니다.
[01:50]
문제들이 특정 방식으로 제한되어 있어서
[01:52]
그점을 염두에 두어야 합니다만,
[01:54]
그래도 여전히 AI 기술의
[01:56]
발전을 잘 보여주고 있습니다.
[01:59]
효과적으로 코딩하고 소프트웨어를 개발하는
[02:02]
능력이 향상되고 있죠. 보시다시피
[02:04]
2022년 말에 GPT-3.5는
[02:09]
0점이었습니다. 코딩을 전혀 못했던 거죠.
[02:12]
시도는 했지만 실패했습니다. GPT-4는
[02:16]
잘 했는데, GPT-4가 바로
[02:18]
사람들이 말하던
[02:20]
초기 AGI, 또는 마이크로소프트가 말한
[02:22]
'AGI의 불꽃'이죠. ELO 등급이
[02:25]
400점 정도였고, 그 이후로는
[02:27]
점점 더 가파르게
[02:30]
상승하는 그래프를 보여줍니다.
[02:33]
GPT-4 0.3 풀 버전은 2727점이고, 0.4는
[02:37]
3,000점을 넘을 것으로 예측됩니다.
[02:40]
우리는 이런 차트들을
[02:42]
계속 봐왔기 때문에,
[02:43]
뉴스를 따라가고
[02:45]
상황을 지켜보는 대부분의 사람들은
[02:46]
이런 가속화되는 발전과
[02:49]
기하급수적인 능력 향상을
[02:51]
이해하기 시작했습니다.
[02:52]
이 차트가 보여주는 것처럼요.
[02:54]
이와 비슷한 차트들이
[02:56]
많이 있습니다. 잘 했네요.
[02:58]
이제 우리는 하나의 종으로서,
[03:01]
인류로서 점점 더
[03:02]
인공지능이라는 개념에
[03:05]
지수적으로 발전하는 것에
[03:06]
익숙해지고 있습니다.
[03:08]
우리는 이제 그 개념을
[03:09]
이해하기 시작했지만, 이제
[03:12]
새로운 개념에 대해 이야기해 봅시다.
[03:14]
완전히 새로운 것은 아니지만,
[03:16]
대부분의 사람들에게는
[03:18]
이러한 차트들이 처음 봤을 때
[03:21]
충격적이었던 것처럼
[03:22]
이 새로운 개념도
[03:24]
새로운 차원의 것이며
[03:26]
처음에는 다소
[03:28]
충격적일 수 있습니다.
[03:29]
그 개념은 매우 단순한데,
[03:32]
우리가 흔히 AI 어시스턴트, AI 에이전트,
[03:35]
AI 도구라고 부르는 것들이
[03:37]
영화에서 보듯이
[03:39]
보통 하나의 AI와 대화하는
[03:41]
좋은 영화든 나쁜 영화든
[03:43]
대개 우리가 대화하는
[03:44]
하나의 대상이 있었죠.
[03:47]
하지만 실제 현실은
[03:49]
매우 높은 확률로
[03:51]
확실히 말씀드릴 수 있는데
[03:52]
이것들의 대규모 집단이 될 것입니다.
[03:55]
하나가 아닌 10개, 100개, 1000개,
[03:59]
백만 개가 특정 작업을 수행하죠.
[04:01]
우리는 더 작은 모델들이
[04:04]
각자의 특정 작업에서
[04:06]
매우 효과적인 것을 보고 있어서
[04:08]
하나의 큰 스마트 모델이
[04:09]
전체 작업을 수행하는 대신
[04:11]
만 개의 작은 효율적인 모델들이
[04:14]
마치 곤충들처럼 각자의
[04:16]
틈새와 전문 분야에 집중하여
[04:18]
작업을 수행할 가능성이 높습니다.
[04:20]
자, 블로그 포스트를 보면
[04:21]
'세 가지 관찰'이라는 제목으로,
[04:23]
'우리의 임무는 AGI(인공일반지능)가
[04:25]
전 인류에게 이롭게 하는 것'이라고 합니다.
[04:28]
그런데 많은 사람들이
[04:29]
OpenAI가 원래는 완전히
[04:31]
오픈소스가 될 예정이었다고 말합니다.
[04:33]
최근에 우리는
[04:35]
일리야 서츠케버, 샘 알트만,
[04:37]
그렉 브록만, 그리고 일론 머스크 사이의
[04:40]
내부 소통이 공개되었는데,
[04:43]
특히 소송 과정에서
[04:45]
일리야가 말하길, '이 기술이
[04:48]
점점 더 강력해질수록
[04:50]
오픈소스로 공개하지 않을 것이며,
[04:53]
그것은 매우 어리석고 위험할 것'이라고 했죠.
[04:55]
OpenAI가 연구 공유 방식을
[04:57]
왜 바꾸었냐는 질문에
[04:58]
연구 공유와 모델의
[05:00]
오픈소스화 모두에 대해
[05:02]
그는 '우리가 틀렸다'고 단호히 말했습니다.
[05:05]
'만약 우리처럼
[05:07]
언젠가 AI, AGI가
[05:10]
믿을 수 없을 정도로 강력해질 것이라 믿는다면
[05:12]
오픈소스로 공개하는 것은
[05:14]
말이 안 되며 나쁜 생각입니다.
[05:16]
몇 년 안에
[05:18]
AI를 오픈소스로 공개하는 것이
[05:20]
현명하지 않다는 것이 모두에게 명백해질 것'이라고 했습니다.
[05:23]
하지만 이후 샘은 도쿄대학교
[05:25]
Q&A 세션에서
[05:27]
더 많은 연구와
[05:29]
오픈소스 프로젝트를 공유할 것이라 말했는데,
[05:31]
구체적인 내용은 없지만
[05:32]
그 방향으로 조금씩 움직이는 것 같습니다.
[05:34]
그래서 앞으로 어떻게 될지 지켜보겠지만,
[05:35]
그들의 아이디어는 인류 전체에 도움이 되는
[05:38]
AI를 만드는 것이었습니다.
[05:40]
이것이 OpenAI의 기본 아이디어였고,
[05:42]
2017년경으로 거슬러 올라가는 이메일들에서
[05:45]
이에 대해 논의했다고 합니다.
[05:48]
어쨌든, AGI를 가리키는 시스템들이
[05:50]
점점 더 가시화되고 있어서
[05:52]
우리가 처한 이 순간을 이해하는 것이 중요합니다.
[05:54]
AGI는 다소 모호하게 정의된 용어이고,
[05:56]
저도 동의하지만, 일반적으로 우리가 의미하는 것은
[05:59]
점점 더 복잡한 문제를
[06:01]
다양한 분야에서 인간 수준으로
[06:03]
해결할 수 있는 시스템을 말합니다.
[06:05]
인간은 본질적으로 이해하고 창조하려는
[06:07]
도구 제작자이며, 이는 우리 모두를 위해
[06:09]
세상을 더 나아지게 만듭니다.
[06:11]
각 새로운 세대는 이전 세대의 발견을 기반으로
[06:13]
더욱 강력한 도구를 만들어냅니다.
[06:15]
전기, 트랜지스터, 컴퓨터,
[06:17]
인터넷, 그리고 곧 AGI까지.
[06:19]
시간이 흐르면서 진보와 정체를 반복하며
[06:22]
인류의 혁신은 꾸준히 전진해왔고,
[06:24]
이전에는 상상할 수 없었던 수준의
[06:26]
번영과 발전을 가져왔으며
[06:27]
거의 모든 측면에서
[06:29]
삶의 질을 향상시켰습니다.
[06:32]
어떤 면에서 AGI는 우리가 함께 만들어가는
[06:34]
인류 진보의 발판에서
[06:35]
또 하나의 도구일 뿐이지만,
[06:37]
다른 한편으로는
[06:39]
이번에는 정말 다르다고 말하지 않을 수 없는
[06:41]
뭔가의 시작입니다.
[06:43]
그렇게 느껴지지 않나요?
[06:45]
우리 앞에 놓인 경제 성장은 놀랍고,
[06:46]
이제 우리는 모든 질병을 치료하고
[06:49]
가족과 더 많은 시간을 보내며
[06:50]
우리의 창의적 잠재력을 완전히
[06:52]
실현할 수 있는 세상을 상상할 수 있습니다.
[06:54]
아마도 10년 후에는
[06:56]
지구상의 모든 사람이
[06:57]
오늘날 가장 영향력 있는 사람보다
[07:00]
더 많은 것을 해낼 수 있을 것입니다.
[07:01]
이는 흥미로운 개념이지만,
[07:04]
한 사람과 많은 AI로
[07:06]
운영되는 10억 달러 기업을 상상할 수 있습니다.
[07:09]
한 사람과 많은 AI로 제작된
[07:11]
놀라운 영화도 가능할 것입니다.
[07:13]
확실히 이런 아이디어는 말이 됩니다.
[07:15]
AI 개발은 계속 빠르게 진행되고 있고,
[07:16]
AI 경제에 대한 세 가지 관찰이 있습니다.
[07:19]
최근 DeepSeek이 R1 모델과
[07:22]
V3, R10을 출시했는데
[07:25]
이것이 시장을 놀라게 했죠.
[07:27]
엔비디아 주가가 폭락했고,
[07:29]
AI의 다양한 측면, 지방의 법칙,
[07:32]
경제학 등에 대한 많은 논의가 있었습니다.
[07:35]
이를 잘 모르는 분들을 위해 설명하자면,
[07:37]
이 중국 모델들은 우리가
[07:39]
AI 모델을 만들 수 있다는 것을 보여줍니다.
[07:42]
미국 기업들보다 훨씬 더 저렴하고
[07:44]
효율적으로 말이죠.
[07:46]
정확한 수치는 기억나지 않지만,
[07:47]
10배, 50배 더 저렴한 것도 있었고
[07:49]
추론 비용은
[07:51]
98%나
[07:52]
더 저렴했습니다.
[07:55]
제가 일부 내용을
[07:56]
잘못 기억하고 있을 수 있지만,
[07:58]
이 모델들은 구축하고 운영하는 데
[07:59]
훨씬 더 저렴하고 효율적이었으며,
[08:01]
사람들은 이로 인해
[08:04]
NVIDIA의 AI 칩에 대한 수요가
[08:06]
크게 감소할 것으로 예상했습니다.
[08:09]
자원이 훨씬 더 효율적이 되면
[08:10]
더 효율적인 자원을 활용하면 더 많은 것을 얻을 수 있죠.
[08:12]
그래서 사람들은 AI 칩이 덜 필요할 거라고 생각하는데
[08:13]
물론 일부는 반대 의견을 제시합니다.
[08:15]
제번스의 법칙을 예로 들죠.
[08:17]
즉, 자원이 더 저렴해지면
[08:19]
오히려 더 많이 사용하게 된다는 겁니다.
[08:21]
예를 들어, 연비가 좋은 차를 구입하면
[08:22]
기존처럼 운전하면서 연료비를 절약하는 대신
[08:24]
오히려 더 많이 운전하게 될 수 있죠.
[08:26]
장거리 여행을 가기로 결정할 수도 있는 것처럼요.
[08:28]
샘 알트만은 첫째로, AI 모델의 지능이
[08:30]
학습과 운영에 사용된 자원의 로그값과
[08:32]
대략적으로 비례한다고 말합니다.
[08:34]
기본적으로 우리는 점진적으로
[08:36]
더 나은 모델을 얻을 수 있는데,
[08:38]
이는 전기, 컴퓨팅 파워, 데이터 등의 자원이
[08:40]
기하급수적으로 증가하는 방식으로 이뤄집니다.
[08:42]
이러한 자원은 주로 학습용 컴퓨팅, 데이터,
[08:45]
추론용 컴퓨팅을 포함합니다.
[08:47]
흥미로운 점은 무제한으로 투자할 수 있고
[08:48]
지속적이고 예측 가능한 성과를 얻을 수 있다는 것입니다.
[08:50]
이러한 스케일링 법칙의 예측은
[08:52]
여러 규모에서 정확성이 입증되었습니다.
[08:54]
제가 생각하기에 이것을 시각적으로 보여주는
[08:56]
아주 좋은 예시가 있습니다.
[08:58]
여기 보시는 것처럼 이것이 기본 컴퓨팅 파워입니다.
[09:00]
이 모델을 학습시키는데 사용된
[09:01]
기본적인 컴퓨팅 양을 보여주는데
[09:03]
보시다시피 이것은 강아지와 모자를
[09:05]
표현하려 했지만, 정체를 알 수 없는
[09:06]
악몽 같은 이미지가 되었죠.
[09:08]
뭔가 강아지처럼 보이긴 하지만...
[09:10]
하지만 컴퓨팅 파워를 4배로 늘리면,
[09:12]
즉, 칩의 수를 4배로 늘리거나
[09:13]
학습 시간을 4배로 늘리면
[09:16]
더 많은 하드웨어 리소스를 사용해서
[09:18]
모델을 학습시키게 되는데
[09:19]
그러면 갑자기 훨씬 더 선명해집니다.
[09:21]
이미지가 확연히 개선되어
[09:24]
배경의 사람, 눈, 강아지 등이
[09:25]
더 명확하게 보이게 됩니다.
[09:26]
다음 이미지에서는 기본 컴퓨팅 파워의
[09:28]
30배를 사용했을 때의 결과를 보여줍니다.
[09:31]
그 모델을 개발하는데 30배 더 많은
[09:34]
리소스를 사용했더니, 보시다시피
[09:36]
매우 사실적이고 그림자도 완벽하며
[09:39]
강아지가 착지할 때 날리는 눈까지
[09:41]
아주 생생하게 표현되었습니다.
[09:44]
정말 뛰어난 품질인데, 달라진 것은
[09:46]
단지 하드웨어를 더 투입한 것뿐입니다.
[09:48]
또한 주목할 점은 이것이 기하급수적
[09:50]
성장을 보인다는 것입니다. 기본에서 4배, 다시 32배로
[09:51]
이런 기하급수적인 도약이
[09:54]
눈에 띄는 품질 향상을 만들어냅니다.
[09:56]
이러한 패턴은 지금까지
[09:58]
대규모 언어 모델을 포함한
[10:01]
많은 AI 모델에서 일관되게 관찰되고 있습니다.
[10:02]
샘 알트만은 AI 비용이 매 12개월마다
[10:04]
약 10배씩 감소하며, 이러한 가격 하락이
[10:08]
훨씬 더 많은 사용으로 이어진다고 합니다.
[10:11]
우리는 이 수치에 대해 여러 가지
[10:13]
다른 추정치들을 봐왔는데, 10배라는 수치는
[10:15]
심지어 14배까지도 보았지만
[10:17]
10배 정도가 적절한 추정치라고 볼 수 있습니다.
[10:19]
이는 이러한 기술들이 얼마나 빠르게
[10:21]
저렴해지는지를 보여주는 좋은 지표입니다.
[10:24]
가격이 낮아질수록 더 많은 사람들이 사용하게 되는데
[10:27]
더 저렴해질수록 더 많은 사람이 사용하게 됩니다.
[10:30]
이는 2023년 초 GPT-4에서 2024년 중반 GPT-4로
[10:31]
넘어오면서 토큰당 비용이 약 150배
[10:33]
감소한 것에서 확인할 수 있습니다.
[10:38]
토큰당 가격이 150배 정도 떨어졌죠.
[10:40]
토큰은 단어처럼 생각하시면 됩니다.
[10:45]
입력과 출력은 정확히 단어와 일치하지는 않는데,
[10:47]
일부 단어들은 여러 토큰으로
[10:48]
나뉘어져 있습니다. 하지만
[10:50]
단어 단위의 입출력 가격이라고
[10:52]
생각하면 됩니다. 이는 150배나 하락했죠. 무어의 법칙이
[10:55]
18개월마다 2배씩 성능이 향상되며 세상을 바꿨는데,
[10:59]
이것은 그보다 훨씬 더 강력합니다. 그는 계속해서
[11:02]
선형적으로 증가하는 지능의
[11:04]
사회경제적 가치는 매우
[11:06]
기하급수적이라고 말합니다. 이로 인해
[11:08]
우리는 가까운 미래에
[11:10]
기하급수적으로 증가하는 투자가
[11:12]
멈출 이유가 없다고 봅니다. 그리고
[11:14]
이에 대해 많은 논쟁이 있었습니다.
[11:16]
하드웨어, 컴퓨터,
[11:18]
AI 칩에 대한 수요가
[11:19]
감소할 것인가에 대해서인데,
[11:21]
이렇게 생각해보세요. 만약 100억 달러를
[11:24]
최고의 AI 모델을 만드는 데
[11:27]
투자할 수 있다고 하다가
[11:30]
다음날 갑자기 비용이 절반으로
[11:33]
줄어들었다고 가정해 봅시다.
[11:35]
그런 모델을 만드는데
[11:37]
이때 우리는
[11:38]
50억으로 줄여서 만들지 않을 겁니다.
[11:40]
50억으로 할 수 있는 최선을 다하는 대신
[11:42]
여전히 100억을
[11:44]
전부 투자해서 최고의 것을 만들 겁니다.
[11:46]
아무도 단순히 벤치마크에서
[11:49]
특정 수준을 달성하려 하지 않았어요.
[11:51]
최고를 만들려고 했죠. 그래서
[11:53]
100억이 있다면
[11:54]
100억을 쓸 겁니다. 이것이
[11:56]
그들이 최고를 만들기 위해 지불할 용의가 있는
[11:58]
금액이에요. 더 효율적이고
[12:00]
저렴하게 모델을 만들 수 있다는 것은
[12:02]
모델이 더 좋아진다는 의미지,
[12:03]
차액을 절약한다는
[12:04]
의미가 아닙니다. 여기서 샘은
[12:06]
이 분야에 대한 기하급수적인
[12:09]
투자 증가가 계속될 것으로
[12:12]
예상하고 있습니다. 이러한 세 가지 관찰이
[12:14]
계속 유지된다면 사회에
[12:16]
미치는 영향은 엄청날 것입니다. 우리는 지금
[12:18]
AI 에이전트를 출시하기 시작했는데,
[12:20]
이는 결국 가상의
[12:22]
동료처럼 느껴질 것입니다. 이것이
[12:23]
제가 앞서 언급했던 부분인데,
[12:25]
이제 실질적인 구현이 시작되는 시점입니다.
[12:27]
그가 언급하는 것은
[12:29]
우리가 올해
[12:30]
2025년에 볼 수 있는 것들입니다. 이미
[12:33]
암시된 바 있어서 이것이
[12:35]
곧 온다는 걸 알고 있죠. 계속해서
[12:36]
소프트웨어 엔지니어링
[12:38]
에이전트의 사례를 상상해봅시다. 현재
[12:40]
그들이 가진 내부 모델은 세계 50위권의
[12:43]
코더 수준입니다. 코드포스 벤치마크에 따르면
[12:45]
1년 또는 2년 전만 해도
[12:48]
백만 등 정도였던 것에서 크게 향상되었죠.
[12:51]
첫 번째 추론 모델이
[12:53]
나왔을 때와 비교하면,
[12:54]
아마도 2023년 말 즈음이었을 겁니다.
[12:57]
그들은 이 에이전트가
[12:59]
특히 중요할 것이라고 예상합니다.
[13:02]
이 에이전트는 결국
[13:04]
최고 기업에서 일하는
[13:05]
몇 년 경력의 소프트웨어 엔지니어가
[13:08]
할 수 있는 대부분의 일을
[13:10]
며칠 정도 걸리는 작업까지 수행할 수 있을 겁니다.
[13:12]
지난 2개월 동안 우리는
[13:14]
오픈AI에서 완전히 새로운 것이
[13:16]
등장하는 것을 보았습니다. 바로 이러한 도구들,
[13:19]
즉각적인 답을 주지 않는 에이전트들입니다.
[13:21]
바로 즉각적으로, 오퍼레이터에게
[13:23]
이것을 검색해보라고 하거나
[13:25]
어떤 작업을 하라고 하면 클릭을 시작하죠.
[13:27]
제가 한번은 이걸 실행시켰는데
[13:28]
23분 동안 작업을 완료하려고 시도했어요.
[13:31]
제가 지시한 작업을 하면서
[13:32]
온라인 지뢰찾기 게임을 찾아서
[13:35]
이기라고 했는데, 23분 동안 시도했지만
[13:38]
완전히 실패했어요. 끝내지 못했죠.
[13:41]
그냥 포기했지만, 23분 동안
[13:43]
끈기 있게 시도했다는 게 놀라웠어요.
[13:45]
온라인에서 보니 사람들이 올린 글 중에는
[13:47]
작업 완료하는데 더 오래 걸린
[13:49]
경우도 있더라고요. Deep Research도
[13:51]
최근에 출시됐는데, 보통 10분에서
[13:53]
20분, 심지어 30분까지도
[13:55]
프로젝트를 깊이 있게 연구하고
[13:57]
완료되면 알려주면서
[13:59]
요청한 보고서를 제공하더라고요.
[14:01]
그래서 여기서 말하는
[14:03]
이 소프트웨어 엔지니어 에이전트는
[14:05]
며칠 동안 작업하다가
[14:07]
며칠 후에 완성된 프로젝트를 가지고 올 수 있다는 거죠.
[14:10]
잠깐 생각해보세요.
[14:12]
이것은 꽤 복잡한 프로젝트를
[14:14]
처리할 수 있다는 것을 의미합니다.
[14:16]
며칠이 걸릴 정도면
[14:17]
정말 대단한 일이 될 것 같네요.
[14:20]
샘 알트만은 계속해서 말하길,
[14:22]
가장 혁신적인 아이디어를 내지는 못할 것이고
[14:25]
많은 인간의 감독과
[14:26]
지시가 필요할 것이며
[14:28]
어떤 것들은 잘하지만 다른 것들은 의외로 못할 것이라고 했죠.
[14:31]
저는 항상 이탄 믹의 아이디어로 돌아가는데
[14:33]
제가 알기로는 그가 처음 만든 용어이고
[14:35]
확실히 제가 처음 들은 곳이에요.
[14:37]
그의 서브스택에서 유용한 내용을 봤는데
[14:39]
그 아이디어는 단순해요.
[14:40]
이렇게 생각해보면
[14:42]
인간의 능력을 점선으로 표현하면
[14:45]
같은 난이도의 작업들이
[14:47]
우리가 생각하기에
[14:49]
비슷한 난이도라고 여기는 작업들이에요.
[14:51]
만약 어떤 사람이 A라는 작업을 할 수 있다면
[14:53]
B와 C도 할 수 있을 거라고 생각하죠.
[14:55]
같은 난이도 선상에 있으니까요.
[14:57]
하지만 AI의 능력은
[14:59]
들쭉날쭉한 미친 파도 같아요.
[15:02]
어떤 것은 초인적으로 잘하고
[15:04]
또 어떤 것은 완전히 실패하죠.
[15:06]
의외로 쉬운 일도
[15:08]
실패할 수 있다는 거예요.
[15:10]
그래서 샘이 말한 것처럼
[15:12]
어떤 것은 뛰어나게 잘하고
[15:14]
어떤 것은 의외로 못하게 될 거예요.
[15:16]
AI 실무자로서 우리가
[15:19]
우리를 그렇게 부를 수 있다면
[15:21]
우리가 가져야 할 스킬 중 하나는
[15:22]
이 불규칙한 성능 곡선을
[15:24]
이해하는 능력이에요.
[15:27]
우리가 AI에게 시키려는 특정 사용 사례에 대해서요.
[15:30]
그리고 다른 모델들이
[15:31]
발전할 때 어떻게 변화하는지
[15:34]
그 곡선이 어떻게 전진하는지 이해하는 거죠.
[15:36]
예전에 AI 모델들에게 주던 퍼즐이 있었는데
[15:38]
보드에 특정 조각들을 배치하고
[15:40]
어떤 제약 조건이 있었어요.
[15:41]
하나는 다른 것 옆에 둘 수 없다는 등의
[15:43]
제약이 있었죠.
[15:45]
GPT-4를 포함한 모든 모델이 못 풀었어요.
[15:48]
제미나이 모델들도, 어떤 모델도
[15:51]
효과적으로 풀지 못했죠.
[15:52]
그러다가 추론 모델 01이 나왔는데
[15:54]
완벽하게 해냈어요. 하지만
[15:57]
블로그는 계속해서 이것을 실제적이지만
[16:00]
비교적 주니어급의 가상 동료로
[16:02]
생각하라고 말합니다. 이것이 바로
[16:04]
우리 대부분이 시작해야 할
[16:06]
중요한 사고의 전환입니다.
[16:10]
이제 이런 AI가 1,000개 또는 100만 개가 있다고 상상해보세요.
[16:13]
모든 지식 노동 분야에서
[16:15]
이러한 에이전트들이 있다고 상상해보세요.
[16:17]
이런 시스템의 경제성은
[16:19]
천 개의 에이전트를 운영하는 것이
[16:21]
특정 작업을 수행하는데
[16:23]
몇 푼 정도의 비용만 들 수 있고
[16:25]
그 작업들을 매우 효과적으로 수행할 수 있습니다.
[16:27]
따라서 이러한 AI 에이전트들의 집단이
[16:30]
등장할 것으로 예상됩니다.
[16:32]
하나가 천천히 작업하는 것이 아니라
[16:34]
전체 집단이 동시에
[16:36]
문제를 해결하는 거죠. 어떤 면에서 AI는
[16:38]
트랜지스터와 같은 경제적 영향을 미칠 수 있습니다.
[16:41]
확장성이 뛰어난 큰 과학적 발견이며
[16:42]
경제의 모든 구석구석에
[16:44]
스며들 것입니다. 우리는
[16:45]
트랜지스터나 트랜지스터 기업에 대해
[16:47]
깊이 생각하지 않지만, 그 이익은 널리 분배되어
[16:50]
우리가 사용하는 컴퓨터, TV,
[16:52]
자동차, 장난감 등이 기적같은 성능을 보여줍니다.
[16:55]
세상은 한순간에 변하지 않습니다.
[16:57]
그런 적이 없죠. 삶은 단기적으로
[16:59]
대부분 똑같이 진행될 것이고
[17:01]
2025년의 사람들은 2024년과
[17:04]
거의 같은 방식으로 시간을 보낼 것입니다.
[17:06]
우리는 여전히 사랑에 빠지고, 가정을 꾸리고
[17:08]
온라인에서 논쟁하고, 자연을 즐기는 등
[17:11]
일상을 보낼 것입니다. 여러분 중 일부는
[17:13]
온라인에서 논쟁하는 것이
[17:15]
가장 좋아하는 활동이라는 걸 알고 있죠.
[17:17]
인터넷상에서 누군가 틀린 말을 하면
[17:19]
바로 잡으려 하시죠. 실제로
[17:21]
이와 관련된 법칙이 있는데
[17:24]
온라인에서 질문을 했을 때
[17:27]
답변을 받지 못할 수 있지만
[17:29]
정확한 정보를 얻고 싶다면
[17:31]
오히려 틀린 답변을 하는 게
[17:33]
더 나을 수 있습니다. 누군가가 즉시
[17:35]
와서 정정해줄 테니까요. 이게 실제 법칙이에요.
[17:38]
머피의 법칙이라고 하죠.
[17:41]
아시다시피 매우 정확한 법칙입니다.
[17:42]
계속해서 말씀드리자면
[17:44]
미래는 우리가 무시할 수 없는
[17:46]
방식으로 다가올 것이며, 우리 사회와
[17:48]
경제의 장기적 변화는 엄청날 것입니다. 우리는
[17:50]
새로운 일을 찾고, 서로에게 도움이 되는
[17:52]
새로운 방법을 찾고
[17:54]
경쟁할 새로운 방법을 찾을 것입니다. 하지만
[17:57]
오늘날의 직업과는 매우 다를 수 있습니다.
[17:59]
주도성, 의지력,
[18:01]
결단력이 매우 중요해질 것입니다.
[18:03]
무엇을 해야 할지 올바르게 결정하고
[18:05]
끊임없이 변화하는 세상을 헤쳐나가는 것이
[18:08]
엄청난 가치를 가질 것입니다. 회복력과
[18:10]
적응력은 키워야 할
[18:13]
중요한 기술이 될 것입니다. ADHD가 있어서
[18:15]
학교생활과 직장생활에서 어려움을 겪었던 사람들,
[18:18]
너무 안정적이고 지루하며
[18:19]
단조롭고 반복적인 일상에 힘들어했던 사람들에게
[18:22]
이렇게 말하고 싶습니다.
[18:25]
이제 우리의 시대가 왔다.
[18:27]
우리가 준비해온 때라고요. 샘은 계속해서 AGI가
[18:30]
인간의 의지에 가장 큰 영향력을 미칠 것이며
[18:33]
개개인이 그 어느 때보다
[18:34]
더 큰 영향력을 가질 수 있게 해줄 것이라고 말합니다.
[18:37]
전에도 언급했지만
[18:38]
어떻게 생각하시는지 궁금한데요.
[18:40]
인류 역사의 대부분 동안, 한 개인이 가질 수 있는 잠재력은
[18:42]
평균적으로 그리 크지 않았습니다.
[18:45]
그리고 앞으로 다가올 미래를 상상해보면
[18:47]
더 많은 것들이 자동화될 것입니다.
[18:48]
대부분의 일들이 어떤 형태로든
[18:51]
초지능 AI에 의해 처리될 것이죠.
[18:54]
100년, 200년 후에는
[18:56]
다시 한번, 한 개인이 미칠 수 있는
[18:59]
영향력은 아마도 그리 크지 않을 겁니다.
[19:01]
대부분이 최적화되고 발견되어 있을 테니까요.
[19:03]
아시다시피, 평균적인 사람이
[19:05]
미칠 수 있는 영향력이
[19:07]
그리 크지 않을 거라는 거죠.
[19:08]
하지만 지금, 바로 이 순간
[19:11]
AI가 등장하면서
[19:13]
개인의 능력과 잠재력이
[19:16]
급격히 증가할 것 같습니다.
[19:18]
이것은 짧은 기간이 될 텐데
[19:20]
우리는 지금 이 시기에
[19:21]
전례 없는 엄청난 잠재력을 가진 시대를
[19:24]
살고 있는 거죠. 제가 왜 이렇게 썼는지...
[19:26]
지금이라고 쓴 게 명확했길 바랍니다.
[19:28]
죄송합니다. 우리는 AGI의 영향이
[19:30]
불균형할 것으로 예상합니다.
[19:32]
일부 산업은 거의 변화가 없겠지만
[19:34]
과학적 진보는 현재보다
[19:36]
훨씬 빨라질 것입니다. AGI의 영향은
[19:38]
다른 모든 것을 능가할 수 있죠.
[19:40]
자동화된 재귀적 AI가 스스로를 개선하고
[19:44]
AI가 AI 연구를 하는 것처럼
[19:45]
그런 플라이휠이
[19:47]
매우 빠르게 돌아가기 시작할 겁니다.
[19:49]
많은 상품의 가격이 결국
[19:51]
극적으로 하락할 것입니다.
[19:52]
현재는 지능의 비용과 에너지 비용이
[19:54]
많은 것을 제한하고 있죠.
[19:57]
그리고 사치품과 토지와 같은
[19:59]
본질적으로 한정된 자원의 가격은
[20:01]
더욱 급격히 상승할 수 있습니다.
[20:03]
샘 알트만의 '무어의 법칙' 블로그 포스트에서
[20:05]
이런 내용을 많이 다루는데
[20:06]
그가 제시한 사례가
[20:09]
매우 선견지명이 있다고 봅니다.
[20:10]
그가 100% 맞을 것 같은데요.
[20:12]
무제한적인 지능과 고성능 로봇을 상상해보면
[20:14]
많은 것들이 더 이상
[20:16]
희소하지 않게 될 겁니다.
[20:18]
예를 들어, 저택처럼
[20:20]
저택을 짓는 비용이
[20:22]
로봇 군단이 있다면
[20:25]
훨씬 저렴해질 수 있죠.
[20:26]
의료 서비스도 마찬가지로 비용이 떨어질 겁니다.
[20:29]
그렇다면 어떤 것이
[20:32]
수요가 있는 본질적으로 제한된
[20:34]
자원일까요? 토지가 확실히 하나겠죠.
[20:36]
그는 계속해서 말합니다.
[20:38]
기술적으로 보면
[20:40]
우리 앞의 길은 꽤 명확합니다.
[20:42]
많은 사람들이 AI에 대해 직진로라고 말하죠.
[20:44]
그의 회사는 안전한 초지능을
[20:46]
구축하고 있다고 말합니다.
[20:49]
직진로이며, 우리는
[20:50]
목표가 시야에 들어왔다고 말하고 있습니다.
[20:53]
더 이상의 기술적 제한은 없으며
[20:55]
우리는 그곳에 도달하는 방법을 알고 있다고 믿습니다.
[20:58]
하지만 그는 이어서
[20:59]
공공 정책과
[21:01]
AGI를 사회에 통합하는 방법에 대한
[21:03]
집단적 의견이 매우 중요하다고 말합니다.
[21:05]
초기 제품을 출시하는
[21:06]
한 가지 이유는
[21:08]
사회와 기술에 시간을 주기 위해서입니다.
[21:10]
AI는 경제와 사회의 모든 영역으로 스며들 것이고,
[21:13]
우리는 이미 AI가 점점 더 많은 분야와
[21:15]
교차되는 것을 목격하고 있습니다.
[21:17]
앞으로는 모든 것이 스마트해질 것으로 예상됩니다.
[21:20]
모든 사람은 아닐지 몰라도,
[21:22]
확실히 모든 것이 스마트해질 것입니다.
[21:25]
우리는 사람들에게 기술에 대해
[21:27]
이전보다 더 많은 통제권을 줄 필요가 있습니다.
[21:29]
더 많은 오픈소스를 제공하고,
[21:31]
안전성과 개인의 권한 부여 사이의
[21:33]
균형이 트레이드오프를 필요로 한다는 점을
[21:34]
인정해야 합니다. 일부 연구에 따르면,
[21:37]
우리는 이미 소위 말하는
[21:39]
자가복제 레드라인을 넘어섰다고 합니다.
[21:41]
이는 현재 오픈소스이며
[21:43]
최고 수준의 모델보다 작은 모델들도
[21:45]
최고 수준이 아닌 모델들조차
[21:47]
자가복제가 가능하며
[21:48]
다른 컴퓨터로 복제를 계속할 수 있고
[21:51]
그 방법을 스스로 찾아낼 수 있다는 의미입니다.
[21:53]
오픈소스라는 것은 여러분의 컴퓨터에
[21:55]
로컬로 설치할 수 있다는 뜻입니다.
[21:57]
만약 독점 모델이라면
[21:58]
중앙에서 한 번에 차단할 수 있지만,
[22:00]
오픈소스는, 글쎄요, 저는 좋아하고
[22:03]
지지하며 발전하기를 바랍니다만
[22:06]
거기에는 몇 가지 위험이 따릅니다.
[22:08]
저는 어느 한쪽을 밀어붙이지는 않지만,
[22:10]
이것이 사실이라고 생각합니다.
[22:12]
개인적으로 저는
[22:14]
오픈소스가 매우 중요하다고 믿습니다.
[22:16]
무모해지고 싶지는 않지만,
[22:17]
AGI 안전성과 관련하여
[22:19]
중요한 결정과 제한이 있을 것이고,
[22:21]
이는 인기 없는 방향이 될 수 있습니다.
[22:23]
AGI 달성에 가까워질수록
[22:26]
우리는 개인의 권한 강화 쪽으로
[22:28]
나아가는 것이 중요하다고 봅니다.
[22:30]
다른 가능한 경로는
[22:31]
AI가 권위주의 정부에 의해
[22:33]
대중 감시와
[22:35]
자율성 상실을 통해
[22:36]
국민을 통제하는 데 사용되는 것입니다.
[22:38]
이는 매우 중요한 주제이지만
[22:40]
충분히 논의되지 않고 있습니다.
[22:43]
그가 이 문제를 제기하는 것이 다행입니다.
[22:45]
이 분야를 팔로우하고 있다면,
[22:46]
아마도 대부분의 사람들은
[22:47]
P Doom이라는 개념을 들어보셨을 겁니다.
[22:49]
사람들이 자주 언급하는데,
[22:51]
나쁜 일이 일어날 확률이 얼마냐,
[22:54]
AI가 인류에게 치명적인
[22:56]
존재적 위험을 초래할 확률이 얼마냐,
[22:59]
많은 사람들이 이에 대해 논의합니다.
[23:01]
다른 한 가지 개념은
[23:03]
권위주의 정부에 대한 것으로,
[23:04]
P 1984라고 불립니다.
[23:06]
이는 권위주의 정부와 자율성 상실,
[23:09]
집단사고 등에 관한 책에서 유래했습니다.
[23:11]
AI는 확실히 그런 미래를
[23:13]
매우 효과적으로 실현할 수 있습니다.
[23:17]
권위주의 정부가 이를 활용한다면,
[23:20]
그것은 영구적인
[23:21]
정권이 될 수 있고,
[23:23]
결코 전복될 수 없을지도 모릅니다.
[23:26]
이는 매우 두려운 시나리오입니다.
[23:28]
AGI의 혜택이 널리 분배되도록
[23:30]
보장하는 것이 매우 중요합니다.
[23:32]
기술 발전의 역사적 영향을 보면
[23:34]
우리가 관심을 갖는
[23:36]
대부분의 지표들,
[23:37]
건강 지표나 경제적 번영 등이
[23:39]
전반적으로 개선되어 왔습니다.
[23:41]
평균적으로 그리고 장기적으로는 상황이 나아지지만
[23:43]
불평등의 증가는 기술적으로
[23:44]
결정된 것처럼 보이지 않으며
[23:46]
이를 바로잡기 위해서는 새로운 아이디어가 필요할 수 있습니다
[23:48]
특히 자본과 노동 사이의 힘의 균형이
[23:50]
쉽게 무너질 수 있어 보이고
[23:52]
이는 조기 개입이 필요할 수 있습니다
[23:54]
우리는 모든 사람에게 컴퓨팅 자원을
[23:55]
할당하는 것과 같은 이상하게 들리는 아이디어에도
[23:58]
열려있습니다. 이를 통해 지구상의 모든 사람이
[24:00]
AI를 많이 사용할 수 있게 하는 것이죠
[24:02]
하지만 우리는 또한 단순히
[24:04]
지능의 비용을 최대한
[24:05]
낮추는 것만으로도 원하는
[24:08]
효과를 볼 수 있다고 봅니다. 제 개인적인 견해로는
[24:10]
장기적으로는 매우 낙관적이지만
[24:12]
단기적으로나 중기적으로, 특히 AGI가
[24:13]
세상에 등장하고 우리가 준비되지 않은 상태에서
[24:16]
경제와 노동, 자본에 대해
[24:18]
어떻게 해야 할지 고민하는 과정에서
[24:20]
AI의 초지능은 우리가 지금까지 구축해온
[24:23]
세계와 경제 시스템 등에
[24:25]
깔끔하게 들어맞지 않기 때문에
[24:28]
단기와 중기에는 매우 불안정할 수 있다고 봅니다
[24:30]
장기적으로는 우리가 해결책을 찾을 것이라 낙관하며
[24:33]
모든 사람이 더 나아질 것이라고 보지만
[24:35]
전환기는 아주 순탄치 않을 수 있습니다
[24:37]
이에 대해 저는 몇 가지 우려사항이 있습니다
[24:40]
2035년에는 누구나 2025년의 모든 사람들의
[24:42]
지적 능력을 동원할 수 있어야 합니다
[24:45]
모든 사람이 무제한의 천재성에
[24:47]
접근할 수 있어야 하고, 그들이 상상하는 대로
[24:49]
활용할 수 있어야 합니다
[24:51]
현재 많은 재능있는 사람들이
[24:53]
자신의 능력을 완전히 발휘할 자원이 없습니다
[24:55]
만약 이것이 바뀐다면
[24:58]
세상의 창조적 산출물은
[25:01]
우리 모두에게 엄청난 혜택을 가져다 줄 것입니다
[25:02]
불행히도 이것은 매우 사실입니다
[25:04]
이전 영상에서 다룬
[25:06]
이 포스트를 보여드렸는데
[25:08]
버클리의 한 연구자가 DeepSeek-R10을
[25:10]
재현했습니다. 그 '아하' 순간,
[25:12]
AI가 스스로 인지 전략을 만들어내는
[25:14]
그 능력을 30달러 미만으로 구현했죠
[25:16]
그 영상을 못 보셨다면 정말 놀라운 내용입니다
[25:19]
여기서의 잠재력은 엄청날 수 있습니다
[25:23]
이 사람은 여러 저자 중 한 명인데
[25:25]
그가 어떻게 했는지 설명하면서
[25:27]
마지막에 한 가지 주의사항으로
[25:30]
이것이 단 하나의 테스트 작업에서만 검증되었고
[25:32]
일반적인 추론 영역에서는 아직 검증되지 않았다고 합니다
[25:35]
현재는 컴퓨팅 파워에 제한이 있어서
[25:37]
도움이 필요하다고 말하고 있습니다
[25:38]
이렇게 뛰어난 두뇌를 가진 사람이
[25:40]
컴퓨팅 자원의 제한을 받고 있다는 것은
[25:41]
비극적인 일입니다
[25:43]
이는 거의 범죄적이라고 할 수 있죠
[25:45]
이런 사람들이 수백만 명은 있을 텐데
[25:47]
만약 우리가 더 많은 자원을 제공한다면
[25:49]
그들은 이 세상을 더 나은 곳으로 만들고
[25:51]
과학을 발전시킬 것입니다
[25:53]
샘이 말한 것처럼
[26:16]
세상의 창의적 결과물은
[26:18]
우리 모두에게 엄청난 이점을 가져다 줄 것입니다
[26:20]
자, 이것으로 포스트는 끝났는데요
[26:22]
여러분도 빠르게 눈치채셨겠지만
[26:23]
그들이 AGI 옆에 별표를 달아놓았습니다
[26:27]
이게 무슨 의미인지 한번 알아보죠
[26:29]
꽤 재미있는데요, 그들이 말하길
[26:31]
여기서 AGI라는 용어를 사용한 것은
[26:33]
명확한 의사소통을 위한 것이며
[26:35]
마이크로소프트와의 관계를 정의하는
[26:37]
정의와 프로세스를 변경하거나
[26:39]
해석하려는 의도가 없다고 합니다
[26:42]
혹시 모르시는 분들을 위해 설명하자면
[26:43]
마이크로소프트와의 계약에
[26:44]
AGI를 달성하게 되면
[26:47]
계약 내용이 근본적으로 변경된다는
[26:50]
조항이 있어서 일부 합의사항이
[26:52]
무효화된다고 합니다. 중요한 점은
[26:54]
이에 대해 많은 논쟁이 있었다는 거죠
[26:55]
언젠가는 그들이
[26:56]
AGI를 달성했다고 선언하면
[26:58]
계약 조항을 재검토해야 할 것이라는
[27:00]
논쟁이었죠. 하지만 그들은
[27:02]
마이크로소프트와 장기적인 파트너십을
[27:03]
유지할 것이라 말합니다. 이 각주는
[27:06]
우스꽝스러워 보일 수 있지만
[27:08]
일부 언론이 클릭수를 올리려고
[27:10]
터무니없는 기사를 쓸 것을 알기에
[27:12]
미리 대응하는 것이고
[27:15]
터무니없는 기사를 쓰는 언론인들의
[27:17]
터무니없는 행동을 미리 차단하는 것은
[27:19]
전혀 터무니없는 일이 아니죠. 샘은
[27:22]
일이 벌어지기 전에 미리 대응해야 했고
[27:24]
웃을 일이 아닙니다. 마치기 전에
[27:26]
여러분의 생각이 궁금한데요
[27:28]
이런 소프트웨어 엔지니어 에이전트의
[27:30]
출시를 준비할 때가 됐을까요?
[27:32]
샘이 말한 것처럼 수백만 개의
[27:34]
주니어 가상 동료의 출시 말입니다
[27:37]
제가 전에 말씀드렸던 것 기억나시나요?
[27:39]
인터넷에서 때로는
[27:41]
잘못된 정보를 올리면
[27:42]
올바른 정보를 얻을 수 있다고 했죠
[27:43]
머피의 법칙이라고 했는데 사실은 아니에요
[27:46]
우리끼리의 비밀인데
[27:48]
댓글에서 얼마나 많은 사람들이
[27:50]
저를 교정해줄지 정말 궁금하네요
[27:52]
제 예상으로는 최소 100명? 이 법칙의
[27:54]
진짜 이름이 궁금하시다면 댓글을 보세요
[27:56]
분명 찾으실 수 있을 겁니다
[27:58]
여기까지 시청해주셔서 감사합니다
[28:00]
저는 웨스 알티에이치였습니다
[28:01]
다음에 또 만나요