[00:00]
다른 사람들이 트위터 논쟁 같은 것에 집중하고 있는 동안,
[00:03]
우리는 진짜 뉴스에 집중해봅시다.
[00:05]
AI의 발전 말이죠.
[00:08]
저는 이것이 가속화되고 있다고 말하고 싶습니다.
[00:11]
특히 구글의 경우가 그렇습니다.
[00:13]
구글은 방금 최신 버전의
[00:16]
Gemini 2.5 Pro를 출시했습니다.
[00:19]
명백히 대부분의 벤치마크에서
[00:22]
세계 최고의 언어 모델입니다.
[00:24]
네, 제 자체 심플 벤치를 포함해서요.
[00:26]
Claude Opus 4, Grok 3,
[00:29]
그리고 OpenAI의 O3를 포함한 모든 다른 모델들을 능가합니다.
[00:32]
물론 우리는 OpenAI의 O3 Pro를
[00:36]
곧 기대하고 있습니다.
[00:37]
그리고 이건 응답이 더 빠르고,
[00:39]
API를 통해 더 저렴하다는 사실 이전의 이야기입니다.
[00:42]
최대 100만 토큰까지 처리할 수 있습니다.
[00:45]
이는 다른 모델들보다
[00:47]
4-5배 더 많은 양입니다.
[00:49]
하지만 너무 들뜨기 전에,
[00:50]
한 가지 이유가 있습니다.
[00:52]
구글 딥마인드의 CEO인 데미스 사라비스가
[00:54]
Gemini를 담당하고 있고,
[00:56]
구글 자체의 CEO인 순다르 피차이가
[00:58]
어제 둘 다 2030년 이전에는
[01:01]
AGI를 기대하지 않는다고 말했습니다.
[01:02]
팟캐스트 청취자들에게는 죄송하지만,
[01:05]
여기 이 두 줄을 봐주세요.
[01:07]
이 두 개의 수직선 중 어느 것이
[01:09]
더 길다고 말하시겠습니까?
[01:13]
음, Gemini 2.5 Pro,
[01:14]
최신 버전 0605입니다.
[01:16]
네, 미국에 살지 않는다면
[01:18]
이 명명 체계는 매우 혼란스럽습니다.
[01:20]
하지만 이 최신 버전이 뭐라고 하는지 아시나요?
[01:23]
"첫 눈에 보기에는 A선이
[01:25]
B선보다 훨씬 길어 보입니다."
[01:27]
"하지만 이것은 착시현상이고
[01:29]
실제로는 같은 길이입니다."
[01:31]
나중에 이 모델은 더 나아가서
[01:33]
"화면에 자를 대고 직접 테스트해보세요.
[01:36]
길이가 동일하다는 것을 발견하실 겁니다"라고 말합니다.
[01:38]
듣고 계신 분들을 위해 말씀드리면,
[01:40]
명백히 같은 길이가 아닙니다.
[01:42]
물론 이것은 일화적인 사례이지만,
[01:44]
순다르 피차이가 단기 내지 중기적으로
[01:46]
구글이 직원을 해고하는 것이 아니라
[01:49]
더 많이 고용할 것이라고 말한 이유가 있습니다.
[01:51]
물론 CEO들을 항상 신뢰할 수는 없습니다.
[01:52]
그래서 저는 이 비디오의 마지막 부분을
[01:54]
최근에 보고 계신 모든 헤드라인들을
[01:56]
화이트칼라 대학살에 대해 조사하는 데 할애하겠습니다.
[01:58]
더 깊이 파고들면 모든 것이
[02:01]
보이는 것과 같지 않다는 것을 발견했습니다.
[02:03]
이상하게도 지난 18시간 동안
[02:06]
렉스 프리드만에서 공개된 인터뷰로
[02:08]
구글 CEO 순다르 피차이와의 인터뷰로 시작하고 싶습니다.
[02:11]
이 비디오의 전반부는
[02:13]
Gemini 2.5 Pro에 관한 것이기 때문입니다.
[02:15]
하지만 이것조차 Gemini 2.5의
[02:18]
가장 크고 최고 버전이 아닙니다.
[02:20]
그것은 Gemini 2.5 Ultra인데,
[02:23]
실질적으로 아무도 사용할 수 없습니다.
[02:25]
따라서 여러분이 보게 될 모든 기록적인
[02:27]
벤치마크 점수들은
[02:29]
그들의 가장 크고 최고 모델도 아닙니다.
[02:31]
매년 저는 앉아서 말합니다.
[02:32]
"내년에 걸쳐 10배 더 많은 컴퓨팅을
[02:34]
투입할 것이고
[02:36]
진전을 볼 수 있을까요?"
[02:39]
오늘 여기 앉아서 저는
[02:40]
앞으로 1년 동안 많은 진전이
[02:42]
있을 것이라고 생각합니다.
[02:44]
이런 의미에서 컴퓨팅에 제한되어 있다고 생각하는데,
[02:46]
우리가 Flash, Nano, Flash, Pro를 하는 이유 중 일부입니다.
[02:49]
모델들은 있지만 울트라 모델은 없었어요. 마치
[02:52]
매 세대마다 우리는 프로 모델로
[02:55]
울트라의 약 80-90% 정도의
[02:57]
성능을 낼 수 있다고 느꼈지만
[02:59]
울트라는 훨씬 더 느리고
[03:03]
서비스하기에 훨씬 더 비쌌어요.
[03:07]
하지만 우리가 할 수 있었던 것은
[03:09]
다음 세대로 넘어가서
[03:12]
다음 세대의 프로를 이전 세대의
[03:14]
울트라만큼 좋게 만들면서도
[03:16]
빠르고 사용할 수 있는 방식으로
[03:18]
서비스할 수 있게 한 것이죠. 우리가
[03:20]
모두 가장 많이 사용하는 모델들은
[03:22]
우리가 제공할 수 있는 최대 성능보다
[03:26]
아마 몇 달 정도 뒤처져 있을 거예요.
[03:29]
맞죠? 왜냐하면 그것이 가장 빠르고
[03:32]
사용하기 쉬운 것은 아니니까요. 하지만
[03:35]
최신 버전의 제미나이 2.5 프로가
[03:37]
안정적인 릴리스가 될 예정이고
[03:39]
앞으로 몇 달간 수억 명의 사람들이
[03:41]
사용하게 될 것이니, 빠르게
[03:43]
벤치마크 결과들을 살펴보죠.
[03:45]
오른쪽에서 보시면
[03:47]
제미나이 2.5 프로의 세 가지 반복 버전의
[03:50]
결과를 볼 수 있어요. 분명히 하자면, 최신
[03:53]
버전이 앞으로 몇 주 안에
[03:55]
모든 사람들에게 배포될 예정입니다.
[03:57]
인류의 마지막 시험으로 테스트된
[03:59]
전문 지식에서는 다른 모델들을
[04:02]
약간 앞서고 있어요. 극도로 어려운
[04:04]
과학 기반 질문들에서는
[04:07]
86.4%를 기록했는데, 해당 분야의 PhD들이
[04:10]
약 60% 정도를 기록하는 것과 비교하면요.
[04:13]
환각 현상에 대한 대략적인 평가에서는
[04:16]
다른 어떤 모델보다도 좋은 점수를 받았어요.
[04:19]
차트와 시각 자료, 기타
[04:21]
그래프 종류를 읽는 데서는 적어도
[04:24]
03과 동등한데, 03은 제미나이보다
[04:27]
2.5 프로보다 약 4배 더 비싸고
[04:30]
훨씬 더 느려요. 다시 강조하자면
[04:32]
제미나이 2.5 프로는 정말로 제미나이
[04:35]
시리즈의 중간 모델이에요. 또한
[04:38]
이러한 기록적인 점수들의 대부분이
[04:41]
단일 시도에서 나온 것이라는 점도
[04:43]
주목해야 해요. 우리는 아직 제미나이 2.5
[04:46]
프로의 딥 싱크 모드를 보지 못했어요.
[04:48]
그것은 대략 다른 모델들이 활용하는
[04:50]
다중 시도나 병렬 실험과
[04:53]
동등한 것이죠.
[04:55]
코딩에 관해서는 상황이 훨씬 덜
[04:57]
명확해요. 다중 언어를 다룰 때는
[04:58]
ADA의 폴리글롯 벤치마크로 판단했을 때
[05:01]
제미나이가 더 잘 하는 것 같아요.
[05:03]
소프트웨어 엔지니어링에 좀 더
[05:04]
초점을 맞춘 Swebench Verified 같은 경우에는
[05:06]
클로드가 여전히 확실히 앞서는 것 같아요.
[05:09]
하지만 저는 한 가지 고백할 것이
[05:11]
있는데, 파이어베이스에서 도메인을
[05:13]
연결하는 문제가 있었어요. 파이어베이스는
[05:15]
백엔드에서 구글이죠. 이것은
[05:18]
앱 호스팅 인프라와 더 관련이 있었지만
[05:20]
구글 엔티티인 파이어베이스라면
[05:21]
제미나이가 그것에 대해 가장 잘 알 것이라고
[05:23]
생각했을 거예요. 2시간 동안의
[05:26]
전체 대화를 보여드리지는 않지만
[05:28]
기본적으로 제미나이 2.5 프로로는
[05:29]
포기했어요. 공정하게 말하자면 이것은
[05:32]
5월 버전의 제미나이 2.5
[05:34]
프로였지만, 클로드 포 오퍼스는
[05:36]
거의 즉시 문제를 진단할 수 있었어요.
[05:39]
그리고 코딩에 이러한 모델들을 사용하는
[05:41]
모든 사람들이 벤치마크가
[05:43]
항상 실제 사용 환경을 반영하지
[05:45]
않는 유사한 일화들을 가지고 있을 거라고
[05:47]
확신해요.
[05:49]
벤치마크 얘기가 나온 김에, 제가 만든 벤치마크인 Symbol Bench는 어떨까요? 사실 고백할 게 있는데,
[05:51]
어제 출시된 최신 버전의 Gemini 2.5 Pro가 성능이 떨어질 거라고 생각했거든요.
[05:54]
왜 그렇게 생각했냐면, 3월에 나온 첫 번째 버전의 Gemini 2.5 Pro가
[05:56]
51.6%를 기록했는데, 5월 버전의 Gemini 2.5 Pro를 테스트했을 때는
[05:58]
완전한 테스트 실행 자체가 정말 어려웠거든요.
[06:01]
트위터에서도 얘기했지만, 모델이 실제로 질문에 답변한
[06:03]
한 번의 실행에서 약 47% 정도를 기록했어요.
[06:05]
그래서 제가 여러분께 와서 "그래, 코딩과 수학을 위한 RL을 하고 있지만,
[06:07]
그게 모델의 상식을 침식하고 있어"라며 자랑하려던 이론이 있었어요.
[06:09]
이것이 Symbol Bench가 다른 벤치마크에서 포착하지 못하는 것들을 테스트한다는 걸 보여주죠.
[06:12]
하지만 안타깝게도 실제로 일어난 일은, 어제 저녁 최신 버전의 Gemini 2.5 Pro를 테스트했을 때
[06:14]
속도 제한 때문에 완전한 5번의 실행을 할 수 없었다는 거예요.
[06:17]
그래서 아직 결과를 보고하지 않고 있습니다. 하지만 우리가 실행한
[06:19]
4번의 테스트 결과를 보면, 평균 약 62%를 기록했어요.
[06:21]
그래서 RL 최적화에 대한 제 작은 이론이 완전히 무너졌죠.
[06:24]
하지만 진짜로, 4번의 실행만으로도 모든 모델 유형에서
[06:26]
성능이 점점 더 나아지고 있다는 걸 볼 수 있어요. 말하기 싫지만,
[06:27]
진심으로 Simple Bench가 3개월에서 12개월 이상
[06:29]
지속되지 못할 것 같아요. 이제 일자리 관련 기사들에 대해
[06:31]
얘기해야겠지만, Claude나 Gemini 2.5 Pro가 이제
[06:34]
맞히고 있는 질문 유형에 대한 좀 더 자세한 분석을 원한다면
[06:36]
제 패트리온 비디오를 확인해보세요. 간단히 말하면,
[06:38]
평균적인 인간이 최신 모델들을 이길 수 있는
[06:39]
텍스트 기반 벤치마크가 더 이상 없는 순간이 오면,
[06:41]
우리는 상당한 루비콘 강을 건넜다고 할 수 있을 거예요.
[06:43]
구글과 구글 딥마인드 CEO인 순다르 피차이와 데미스 하사비스는
[06:45]
완전한 AGI의 시점을 2030년 직후로 봤어요.
[06:49]
하지만 당연히 우리는 아직 AGI와는 거리가 멀다는 얘기도 보죠.
[06:52]
그래서 이 두 가지가 동시에 경험되고 있는 거예요.
[06:54]
질문에 답하겠지만 이것도 던져보죠. 용어 자체는
[06:57]
거의 중요하지 않다고 느껴요. 제가 아는 건 2030년까지
[07:00]
극적인 진전이 있을 것이라는 거예요. 우리는 그 진전의
[07:02]
결과들, 긍정적인 외부 효과와 부정적인 외부 효과 모두를
[07:04]
2030년까지 큰 방식으로 다뤄야 할 거예요. 그래서 저는
[07:06]
우리가 용어에 대해 논쟁하든, 아니면 Gemini가 2030년의
[07:08]
그 순간이 언제인지 답할 수 있든, 진전은 극적일 것이라고
[07:10]
강하게 믿어요. 그건 제가 믿는 바입니다.
[07:12]
이제 잠깐 오늘 사용할 수 있는 도구에 대해 말씀드릴게요.
[07:15]
그리고 네, Gemini 2.5를 포함한 다양한 모델을 활용할 수 있습니다.
[07:19]
오늘 비디오의 스폰서가 되겠습니다,
[07:21]
Emergent Mind입니다.
[08:40]
Emergent Mind라는 서비스인데, 제가 이 채널을 후원하기도 전에
[08:42]
약 2년 정도
[08:44]
사용해왔습니다. 이 서비스를 통해
[08:45]
제가 놓쳤을 수도 있는 트렌딩 논문들을
[08:48]
쉽게 확인할 수 있어요,
[08:50]
이런 것처럼 말이죠. 아시다시피 저는 논문을
[08:52]
직접 전체를 읽어보지만, 가끔
[08:55]
해커뉴스나 X에서 트렌딩 중인
[08:57]
논문을 놓치기도 합니다. 이런 요약본은
[09:00]
PDF나 마크다운으로 다운로드하거나
[09:04]
오디오로도 들을 수 있어요. 2.5 Pro
[09:06]
요약본은 당연히 프로 플랜에서
[09:08]
이용 가능하고, 어쨌든
[09:10]
설명란에 링크를 걸어뒀습니다. 이제 일자리 얘기로 넘어가서, 이번주와
[09:12]
지난주에 이런 기사들이
[09:14]
트위터와 레딧에서 바이럴을 타는 걸
[09:17]
많이 봤습니다. '지식 노동의 쇠퇴가
[09:20]
시작되었나?'라고 뉴욕타임스가
[09:22]
물었습니다. 한 링크드인 임원이
[09:24]
뉴욕타임스 게스트 에세이에서
[09:26]
말하길, 이미 시작되었으며
[09:29]
커리어 사다리의 맨 아래 단이 부서지고 있다고 했습니다. 이제
[09:30]
당연히 저는 AI의 잠재력과
[09:33]
노동 시장에 미칠 영향을
[09:36]
과소평가하는 사람이 아닙니다. 하지만
[09:38]
이런 이야기들은 지금
[09:40]
일어나고 있는 일에 대한 것이지, 3~5년 후에
[09:42]
올 수도 있는 일에 대한 게 아니었습니다. 그래서 궁금했어요.
[09:45]
이런 주장을 뒷받침할 통계가
[09:47]
있을까? 많은 기사들이
[09:49]
서로를 인용하고 있지만, 모든 기사가
[09:50]
공통으로 제시하는 통계는
[09:52]
미국 대졸자의 실업률이
[09:53]
2022년 9월 이후
[09:55]
30% 상승했다는 것입니다. 30%까지 상승한 게 아니라
[09:59]
30% 상승했다는 거죠. 꽤 불길하게 들리죠? 하지만 두 가지
[10:02]
맥락적 사실을 알려드릴게요. 첫 번째는
[10:04]
그 30% 상승이라는 게
[10:07]
대졸자 기준으로 2%에서 2.6%로 오른 것입니다.
[10:12]
전체 근로자는 4%인데 말이죠.
[10:15]
그러니까 2.6%라고 들으면
[10:17]
조금 덜 극적이죠. 지금 일부
[10:20]
시청자분들이 화가 나고 있는 게
[10:22]
느껴집니다. 그래서 한 가지
[10:23]
맥락적 사실을 더 들려드리고 제 생각을 말씀드릴게요. 왜냐하면
[10:25]
미국 대졸자 실업률 2.6%가
[10:27]
그렇게 극적으로 들리지 않더라도,
[10:30]
30% 상승은 꽤 현실적이거든요. 그래서 깊이 파고들어서
[10:32]
이런 기사들이 인용하고 있는
[10:35]
데이터 소스를 봤습니다. 여기서
[10:37]
볼 수 있듯이 대졸자들의 실업률이 지금은
[10:40]
2.7%인 것 같네요. 빨간색 선이고
[10:43]
올해 3월 데이터입니다.
[10:46]
하지만 범위를 넓혀보면
[10:48]
예를 들어 2010년에는 모든 대졸자 중
[10:53]
5%였습니다. 심지어
[10:57]
1992년에도
[11:00]
3.5%였어요.
[11:02]
걱정 마세요. 저는 결코 앞으로 올 일의 영향을
[11:05]
과소평가하는 게 아닙니다. 다만
[11:08]
그 영향이 이미
[11:10]
눈에 띄게 나타나고 있다고 말하기엔
[11:12]
좀 과하다는 얘기입니다. 이제
[11:14]
바이럴이 된 다른 기사는
[11:16]
이것입니다. '막 뒤의 화이트칼라
[11:18]
대학살'이라는 제목으로, Anthropic의 CEO인
[11:20]
다리오 아모다이의
[11:22]
인용문을 대거 담고 있습니다. 'AI가 모든
[11:25]
초급 화이트칼라 일자리의 절반을
[11:28]
향후 1~5년 내에 없앨 수 있다'는 식으로
[11:30]
조건부로 표현되면, 사실 반박하기가
[11:33]
꽤 어렵습니다. AI가
[11:35]
가속화되고 있는 방식을 보면, '가능하다'는
[11:38]
시나리오에 반박하기가 정말 어려워요. 아모다이는
[11:41]
조금 더 위험한 영역으로 들어가서
[11:43]
대부분의 사람들이
[11:45]
대부분의 사람들이 이런 일이 곧 일어날 것이라는 사실을 모르고 있다는 점입니다.
[11:48]
Anthropic의 다른 연구원들, 예를 들어 Schulto Douglas 같은 사람들은
[11:50]
훨씬 더 단정적입니다. 여기서 중요한
[11:52]
구분을 해야 할 점들이 있습니다.
[11:54]
하나는 현시점에서 우리가
[11:56]
거의 확실하게 보장받고 있다고 생각한다는 것입니다.
[11:58]
실질적으로 모든 화이트칼라 업무를
[12:00]
자동화할 수 있는 모델들을 2027-28년경
[12:04]
또는 2020년대 말까지 거의 확실하게 갖게 될 것이라는 점입니다.
[12:06]
이 주제는 당연히 별도의
[12:08]
영상으로 다뤄야 할 만큼 중요하지만, 제가 보기에는
[12:10]
화이트칼라 자동화를 위한 필요충분조건은
[12:12]
환각현상과 모델이 스스로
[12:14]
교정하지 못하는 어리석은 실수들을
[12:17]
없애는 것입니다.
[12:18]
만약 2027년과 2028년의 최첨단 모델들이
[12:21]
이런 실수를 할 가능성이 1%라도 있다면
[12:23]
그런 실수들을 확인하기 위해
[12:26]
인간이 개입하는 것이 분명히
[12:28]
대규모 생산성 향상을 가능하게 할 것입니다.
[12:31]
이것이 제가 개인적으로
[12:33]
'폭풍 전의 고요' 이론을 믿는 이유입니다.
[12:35]
이 이론을 제가 2023년에 이 채널에서
[12:37]
처음 제시했습니다. 당시 저는
[12:40]
인간이 최첨단 AI의 작업을
[12:42]
보완하면서 생산성이
[12:45]
대폭 증가하는 것을 먼저 보게 될 것이라고 했습니다.
[12:47]
그래서 저는 아마데가 말하는
[12:49]
화이트칼라 자동화가 불과 몇 년
[12:52]
또는 그보다 짧은 시간 안에 일어날 것이라고
[12:54]
생각하지 않습니다. 여러분 중 많은 분들이
[12:55]
생각하고 계실 거라고 압니다. 이런 CEO들이
[12:58]
외부에 있는 우리들보다 훨씬 더 잘 알고 있을 것이라고요.
[13:00]
하지만 저는 거의 정확히 2년 전
[13:03]
샘 알트만이 했던 말을 기억합니다. 정확한 인용을 하자면:
[13:05]
"18개월에서 2년 안에는 환각현상에 대해
[13:08]
이야기하지 않게 될 것입니다." 이는
[13:10]
GPT-4 출시 후 그가 했던
[13:12]
월드 투어에서 한 말입니다. 그런데 그 말로부터 거의 정확히 2년이 지난 지금,
[13:15]
New Scientist에서 이런 기사가 나왔습니다.
[13:17]
AI 환각현상이 더 심해지고 있으며
[13:19]
계속 존재할 것이라는 내용입니다.
[13:21]
이 기사는 여러 가지 중에서도
[13:23]
Simple QA라는 벤치마크의 통계를 인용합니다.
[13:25]
이전에 채널에서 다뤘던 내용인데,
[13:27]
기본적으로 OpenAI의 최신 모델인 o3가
[13:30]
이전 모델들보다 조금 더
[13:31]
환각현상을 보인다는 것입니다.
[13:33]
그리고 여러분은 AI를 대신 사용하기 위해
[13:35]
고객 서비스 팀을 해고한 Klarna에 대한
[13:38]
바이럴 기사들을 기억하실 것입니다.
[13:40]
그런데 이제는 같은 화제성 없이
[13:42]
조용히 그 정책을
[13:44]
번복했습니다. 고객들이
[13:46]
사람과 대화하는 것을 선호한다고 말하면서요.
[13:48]
700명의 직원을 해고한 후,
[13:50]
이제 많은 인간 상담원들을 다시 고용하고 있습니다.
[13:53]
언어 학습 앱인 Duolingo도
[13:56]
AI에 의존하겠다고 했다가 후퇴하여
[13:58]
그 정책을 번복하고
[14:00]
더 많은 인간을 고용했습니다.
[14:02]
이것이 바로 '폭풍 전의 고요' 이론으로 이어집니다.
[14:04]
최첨단 언어 모델들이 여전히
[14:06]
자신의 환각현상을
[14:07]
스스로 교정하는 데 약한 동안,
[14:09]
인간은 여전히 그들의 노력을 보완하여
[14:11]
전반적으로 더 높은 생산성으로 이어질 수 있습니다.
[14:14]
이는 실업률에 제한적인 영향을 미칩니다.
[14:16]
AI로 인해 직장을 잃은 사람들의
[14:18]
일화적 사례들이 있다는 것을 알고 있습니다.
[14:20]
저를 믿으십시오. 저는 그것을 알고 있고
[14:21]
그런 기사들을 읽었습니다.
[14:23]
하지만 실업률에 미치는 순 효과는 제한적입니다.
[14:25]
이는 당연히 AI에 대한 더 많은 투자로 이어집니다.
[14:27]
AI에 더 많은 투자를 하고 AI 규제는 점점 줄어들게 됩니다
[14:31]
각국이 소위 AI 경쟁에서 승리하려고 하기 때문이죠
[14:33]
하지만 그러다가 전환점이 올 수도 있습니다
[14:35]
충분한 컴퓨팅 파워를 사용하는 모델들이
[14:37]
다양한 자기 교정 방법론에 접근할 수 있게 되면
[14:40]
마침내 어리석은 실수를 멈추고
[14:42]
훈련 데이터 범위를 벗어난 것들만 놓치게 될 것입니다
[14:45]
물론 그 시점에서는
[14:47]
제가 이에 대한 다큐멘터리도 만들었는데
[14:49]
화면 녹화, 대규모 감시,
[14:50]
또는 로봇 데이터를 통해
[14:52]
엄청난 양의 데이터가 추가로 제공될 것입니다
[14:54]
그러면 2020년대 나머지 기간 동안
[14:55]
자리잡았을지도 모르는 안주 상태가
[14:58]
빠르게 뒤집힐 수 있습니다
[15:00]
솔직히 말하면, 블루칼라 직종도
[15:03]
AI 자동화의 영향으로부터
[15:06]
화이트칼라 직종보다 그리 오래
[15:08]
면역되어 있지는 않을 것입니다
[15:10]
그 시점에서는 말이죠
[15:12]
이것은 완전 자율형 Figure O2 로봇
[15:15]
인간형 로봇입니다
[15:18]
그래서 저는 아마도 임박한 변화를 기대하는 사람들과
[15:20]
LLM이 완전히 과대평가되었다고 생각하는 사람들
[15:23]
모두를 화나게 했겠지만
[15:25]
그래도 어쩔 수 없습니다
[15:26]
이것이 제가 생각하는 미래의 모습입니다
[15:28]
이 모든 일이 벌어지는 동안
[15:30]
우리는 몇 가지 멋진 AI 도구에 접근할 수 있게 됩니다
[15:33]
새로운 일레븐랩스 V3 알파 같은 것 말이죠
[15:36]
안녕 제시카, 새로운 일레븐 V3 써봤어?
[15:39]
방금 받았는데 선명도가 놀라워
[15:42]
이제 이렇게 속삭이기도 할 수 있어
[15:45]
오, 멋지네. 이것 좀 봐
[15:48]
이제 완전한 셰익스피어도 할 수 있어
[15:50]
사느냐 죽느냐, 그것이 문제로다
[15:53]
이 준결승전을 위한 조명이 켜집니다
[15:55]
경기장이 기대감으로 들끓고 있습니다
[15:57]
상징적인 흑백 유니폼을 입은 일레븐랩스 유나이티드가
[15:59]
개막 휘슬과 함께 바로
[16:01]
의도를 가지고 전진하고 있습니다
[16:03]
이 영상의 주제처럼
[16:05]
일레븐랩스도 안주할 수 없습니다
[16:07]
구글이 제미나이 2.5 플래시의 네이티브
[16:10]
텍스트-음성 변환 기능으로 그리 뒤처지지 않기 때문입니다
[16:13]
안녕 제시카, 새로운 일레븐 V3 써봤어?
[16:16]
방금 받았는데 선명도가 놀라워
[16:20]
이제 속삭이기도 할 수 있어
[16:23]
이런 식으로. 오, 멋지네
[16:27]
이것 좀 봐. 이제 완전한
[16:29]
셰익스피어도 할 수 있어. 사느냐 죽느냐,
[16:34]
그것이 문제로다. 안녕 제시카,
[16:37]
새로운 일레븐 V3 써봤어? 방금 받았는데
[16:39]
선명도가 놀라워
[16:41]
이제 이렇게 속삭이기도 할 수 있어. 오, 멋지네
[16:44]
시청해 주셔서 정말 감사합니다
[16:46]
항상 그렇듯이 여러분의 생각을 알려주시고
[16:48]
멋진 하루 보내세요