[00:00]
마침내 GPT-5의 로드맵이 공개되었습니다.
[00:02]
GPT-5에 대해 제가 이 영상을 촬영하게 된 이유는
[00:05]
정말 흥분되는데요,
[00:06]
이번에는 처음으로
[00:09]
추측성 정보가 아닌
[00:11]
실제 GPT-5의 전체 로드맵이
[00:13]
우리가 완전히 이해할 수 있도록 공개되었기 때문입니다.
[00:16]
그래서 시간을 낭비하지 말고
[00:19]
GPT-5가 어떻게 배포될 것인지
[00:21]
자세히 살펴보도록 하겠습니다.
[00:23]
이는 미래 AI 시스템이
[00:25]
어떻게 발전할 것인지에 대한
[00:28]
흥미로운 정보를 제공하는데
[00:31]
저도 이에 동의하며
[00:33]
대부분의 AI 시스템이
[00:35]
주요 챗봇 제공업체들의 경우
[00:37]
이런 방향으로 발전할 것 같습니다. 몇 시간 전에
[00:41]
샘 알트만이 트윗을 통해
[00:43]
GPT-4.5와 GPT-5의 공식 로드맵 업데이트를
[00:45]
발표했는데요,
[00:48]
그는 로드맵 공유를
[00:50]
더 잘하고 제품 제공을
[00:53]
단순화하고 싶다고 말했습니다.
[00:55]
AI가 사용자를 위해
[00:56]
잘 작동하기를 원한다면서
[01:00]
현재 모델과 제품 제공이
[01:02]
얼마나 복잡해졌는지 인정했습니다.
[01:04]
기본적으로 설명하자면
[01:06]
ChatGPT를 사용해 본 적이 있고
[01:09]
실제로 사용 중이며
[01:11]
많은 투자를 하고 있다면
[01:13]
예를 들어
[01:14]
최상위 티어의 ChatGPT를 사용 중이라면
[01:16]
현재 완전히 혼란스러운 상태입니다.
[01:19]
제가 지금부터
[01:20]
무슨 의미인지 보여드리겠습니다.
[01:23]
ChatGPT는 처음에는 꽤 단순해 보이지만
[01:26]
이 드롭다운 메뉴를 보면
[01:28]
불행하게도 제가 보는
[01:30]
레이아웃은 여러분과 다르게
[01:32]
1, 2, 3, 4, 5, 6, 7,
[01:35]
GPT-4, mini, 그리고
[01:39]
임시 채팅까지 포함하면 9개가 있습니다.
[01:41]
기본적으로 이 문제는
[01:44]
분석 마비를 일으키고
[01:46]
사용자의 의사결정에 영향을 미칩니다.
[01:50]
예를 들어 누군가가
[01:52]
AI 챗봇을 사용하려고 할 때
[01:54]
실제로 어떤 모델이 최선인지 모릅니다.
[01:57]
GPT-4가 있고
[01:59]
GPT-4.0 스케줄, 01, 03 미니,
[02:02]
하이 03 미니, 01 프롬 모드 등
[02:05]
너무 많은 선택지가 있습니다.
[02:07]
제품 선택에서 항상 언급되는 것은
[02:09]
선택지가 너무 많으면
[02:11]
제품이 실패한다는 것입니다.
[02:13]
이런 상황에서 ChatGPT는
[02:15]
이 모든 것을
[02:17]
단순화하기를 원합니다.
[02:18]
왜냐하면 이것은
[02:20]
일반 사용자가 사용하기에
[02:22]
너무 복잡하기 때문입니다.
[02:23]
저같이 각 작업에 대해
[02:25]
정확히 알고 있는 사람에게는 괜찮지만
[02:27]
일반 사용자에게는 실제로 방해가 되며
[02:29]
좋지 않은 요소입니다.
[02:31]
그래서 그들은
[02:32]
이를 매우 흥미로운 방식으로 변경할 예정이며
[02:34]
이에 대해 나중에 설명하겠습니다.
[02:36]
그들도 우리처럼
[02:37]
모델 선택기를 싫어하며
[02:39]
마법같은 통합 지능으로
[02:42]
돌아가기를 원합니다.
[02:44]
그래서 제가 생각하기에 그들이 취할
[02:46]
접근 방식 중 하나는 이런 통합된 기계를
[02:48]
라우터 LLM을 통한 통합 머신 인텔리전스 구현이
[02:51]
이것은 프레임워크라기보다는
[02:53]
LLM을 설정하는 기본적인 방식입니다.
[02:55]
작업을 훨씬 더 쉽게 만들기 위한 방법이죠.
[02:58]
이렇게 하면 훨씬 수월해집니다.
[03:00]
시스템 프롬프트가 아닌 사용자 프롬프트,
[03:02]
실제 사용자 프롬프트를 사용하게 됩니다.
[03:04]
예를 들어, 사용자가
[03:06]
'오늘 날씨는 어때?'라고 물어보면
[03:08]
라우터가 입력된 모든 프롬프트를
[03:10]
분석하게 됩니다.
[03:12]
이 라우터는 사용자의 질문을 보고
[03:15]
비용과 지연 시간을 분석하고
[03:17]
질문을 검토하여 판단합니다.
[03:19]
라우터는 이 질문이
[03:21]
복잡한 모델이 필요한지,
[03:23]
아니면 간단한 모델로 충분한지
[03:25]
판단하게 됩니다.
[03:26]
2초 안에 답변할 수 있는 간단한 질문인지
[03:29]
어려운 질문이라면 가장 intensive한
[03:31]
LLM으로 전달됩니다.
[03:33]
이는 오랜 시간 동안
[03:35]
생각해야 하는 모델이죠.
[03:37]
반면 매우 간단한 질문,
[03:39]
예를 들어 '닭이 먼저냐,
[03:40]
달걀이 먼저냐' 같은 질문은
[03:42]
매우 간단한 모델로 전달되고
[03:44]
최종적으로 시스템 응답을 받게 됩니다.
[03:46]
이것은 이미 테스트된 방식입니다.
[03:47]
OpenAI가 아닐 수 있지만
[03:50]
다른 회사들이
[03:51]
Route LLM과 같은 시스템을 테스트했고
[03:54]
매우 좋은 결과를 얻었습니다.
[03:57]
비용이 약 85% 정도
[03:58]
감소했다고 합니다. 이에 대해서는
[04:01]
'Route LLM: 비용 효율적인 LLM 라우팅을 위한
[04:04]
오픈소스 프레임워크' 블로그 포스트에서
[04:06]
자세히 읽어볼 수 있습니다. 여기서는
[04:08]
라우팅 설정에서 두 가지 모델,
[04:10]
즉 더 강력하고 비싼 모델과
[04:11]
더 약하지만 저렴한 모델
[04:13]
이 두 가지를 사용하는 경우에 초점을 맞추어
[04:15]
높은 품질을 유지하면서
[04:16]
비용을 최소화하는 것을
[04:18]
목표로 했습니다.
[04:20]
여기서 볼 수 있듯이,
[04:22]
O 시리즈 모델과 GPT 시리즈를
[04:25]
통합하는 것이 주요 목표이며,
[04:27]
모든 도구를 사용하고 언제 오래 생각할지
[04:29]
판단할 수 있는 시스템을 만들어
[04:32]
다양한 작업에 유용하게 만드는 것입니다.
[04:34]
앞서 언급한 프레임워크처럼
[04:35]
Route LLM이 앞으로 우리가 마주하게 될
[04:38]
상황일 가능성이 높습니다.
[04:40]
올인원 시스템을 갖게 될 것이고
[04:43]
향후 모델들은
[04:46]
올인원 시스템으로
[04:48]
제공될 가능성이 높습니다.
[04:50]
물론 시스템의 일부가
[04:52]
O3 미니나 O3 하이 등으로 나눠질 수 있지만
[04:56]
우리는 기본적으로
[04:58]
하나의 거대한 모델이나
[05:01]
조율된 LLM 세트로 향하고 있으며
[05:04]
이는 통합된 수준의
[05:06]
인텔리전스를 제공할 것입니다.
[05:08]
사용자의 구독 등급에 따라
[05:10]
다양한 수준의 인텔리전스에
[05:12]
접근할 수 있게 될 것입니다.
[05:14]
월 200달러를 지불하면
[05:17]
모델의 전체 기능과
[05:19]
고급 추론 기능에
[05:20]
접근할 수 있지만, 무료 사용자는
[05:22]
하루에 한두 가지 정도만
[05:25]
질문할 수 있게 될 것입니다.
[05:27]
하루에 10-20개 정도의 쿼리만 가능하고
[05:30]
아마도 이런 방식으로
[05:31]
모델이 배포될 것입니다. 왜냐하면
[05:34]
6개의 다른 모델을 운영하는 것보다
[05:36]
훨씬 쉽기 때문이죠.
[05:38]
그리고 다른 기업들이
[05:39]
새로운 모델을 출시할 때
[05:41]
이 모델이 확실히 더 좋지만
[05:43]
OpenAI의 브랜딩 측면에서는
[05:45]
더 나은 선택이 될 것 같습니다.
[05:47]
또한 그들은 ChatGPT와
[05:49]
API에서 언급했는데
[05:52]
GPT-5는 GPT-3를 포함한
[05:54]
많은 기술들을 통합한
[05:56]
시스템으로 출시될 것이라고 합니다.
[05:59]
그리고 더 이상
[06:00]
GPT-3를 독립형 모델로 제공하지 않을 것이라고 했습니다.
[06:03]
이를 보면 GPT-5가
[06:05]
GPT-3를 자체 아키텍처의 일부로
[06:08]
흡수할 것이 분명하고
[06:09]
이는 모델의 일부가 될 것입니다.
[06:11]
꽤 오랫동안 말이죠.
[06:13]
즉, GPT-5는 아마도
[06:15]
GPT-3, GPT-1 등 다양한 부분들로 구성된
[06:18]
시스템이 될 것이고
[06:19]
이는 정말 흥미로운
[06:21]
시스템이 될 것 같습니다.
[06:23]
또 한 가지 흥미로운 점은
[06:25]
샘 알트만이 언급한 내용인데
[06:27]
매우 흥미로운 부분입니다.
[06:29]
그는 GPT-5가 하나의 시스템으로서
[06:32]
많은 기술들을 통합할 것이라고 했습니다.
[06:33]
하지만 현재 우리가 가진
[06:35]
모든 것을 포함하는지는 모르겠습니다.
[06:37]
한때 샘 알트만이
[06:39]
올해 아무도 생각하지 못한
[06:41]
무언가를 출시할 것이라고
[06:42]
말한 적이 있는데
[06:45]
이는 매우 흥미롭습니다.
[06:46]
제 생각에 GPT-5는
[06:49]
컴퓨터 에이전트가 될 것 같고
[06:50]
아마도 그들이
[06:52]
이름을 그렇게 짓지 않을까 싶습니다.
[06:53]
왜냐하면 그것이 가장 말이 되기 때문이죠.
[06:56]
이것이 저를 매우 흥미롭게 만드는데
[06:59]
도대체 어떤 것이
[07:01]
GPT-5의
[07:03]
최종 버전이 될지 궁금합니다.
[07:05]
모델이 매우 똑똑하다는 것을 알지만
[07:07]
그들은 또한 말했습니다.
[07:09]
다음 GPT-5를 출시하기 전에
[07:11]
GPT-4.5를
[07:13]
내부적으로 '오리온'이라 부르는 모델을
[07:16]
마지막 비 사고 연쇄 모델로
[07:19]
출시할 것이라고 했습니다.
[07:21]
이는 곧 마지막으로
[07:22]
기존의 훈련 방식을 사용하는
[07:25]
모델이 될 것이라는 의미입니다.
[07:27]
데이터를 수집하고 모델에 입력하여
[07:30]
훈련시키고, 후처리 작업과
[07:32]
미세 조정을 거치는
[07:34]
일반적인 방식 말이죠.
[07:36]
GPT-4나 GPT-4.0과 같은 표준 모델
[07:39]
출력을 위한 모든 과정들이
[07:43]
마지막 모델에 들어갈 것입니다.
[07:45]
제가 전에 말씀드린 것처럼
[07:47]
우리는 새로운 모델 훈련 패러다임에 있고
[07:50]
GPT-4.5는 제 추측으로는
[07:53]
아마도, 이건 제 개인적인 생각인데
[07:55]
Claude 3.5 Sonnet 수준이지만
[07:57]
그보다 조금 더 나을 것 같습니다.
[08:00]
아주 크게 뛰어나지는 않고
[08:02]
약간 더 나을 것 같은데
[08:04]
Claude 3.5 Sonnet이 워낙 뛰어나기 때문입니다.
[08:06]
하지만 제가 예상하기로는
[08:08]
질적으로 더 나아질 것 같습니다.
[08:10]
다른 모델들이 벤치마크에서
[08:12]
Claude 3.5를 능가하긴 하지만,
[08:15]
Claude를 실제로 사용해보면
[08:17]
훨씬 더 똑똑하고 상황을
[08:20]
정확히 이해하는 것 같습니다.
[08:21]
그래서 OpenAI의 목표는
[08:23]
Claude 3.5를 약간 앞서는 것이
[08:26]
될 것 같고, 이는
[08:28]
내부적으로 'Orion'이라 불리는
[08:31]
GPT 4.5로 가능할 것 같습니다.
[08:33]
이 모델이 뛰어나다는 걸 알았지만,
[08:35]
지금까지 배포하지 않은 이유는
[08:36]
대부분의 사람들이 궁금해하던 것처럼
[08:38]
실제로 그들이 언급했던 바와 같이
[08:40]
한 기사에서 설명했듯이
[08:42]
모델의 추론 비용이 너무 높아서
[08:44]
아직 서비스할 수 없었기 때문입니다.
[08:46]
하지만 우리가 알다시피
[08:49]
시간이 지날수록 추론 비용은 꾸준히 감소하고
[08:51]
어제 영상에서 언급했듯이
[08:53]
샘 알트만이 말했던 것처럼
[08:55]
매 12개월마다
[08:58]
LLM의 가격이 약 10배 정도 하락합니다.
[09:01]
그래서 지난 몇 개월 동안
[09:03]
이 모델을 학습시키고
[09:04]
안전성 테스트를 마친 뒤
[09:06]
추론 비용이 크게 하락해
[09:08]
이제는 합리적인 수준에
[09:10]
도달했을 것으로 보입니다.
[09:12]
이제 모델 출시 시기에 대해
[09:15]
예상 시점을 이야기해보자면
[09:17]
이 모델이 언제 나올지
[09:19]
'몇 주 또는 몇 달'이라고 했습니다.
[09:21]
GPT 4.5나 GPT 5의 출시 시기에 대해
[09:23]
GPT 4.5는 아마도
[09:26]
향후 몇 주 안에 출시될 것 같습니다.
[09:28]
제 예상으로는 3월 말까지는
[09:31]
GPT 4.5가 나올 것이고, GPT 5는
[09:33]
2분기 말이나 아마도
[09:36]
3분기 말이 될 것 같습니다만,
[09:39]
이는 제 개인적인 추측입니다.
[09:41]
시간대로 보자면
[09:43]
다음 모델들이 출시되는 시기는
[09:45]
대략 이 정도가 될 것 같습니다.
[09:47]
제가 생각하기에는
[09:49]
이 정도 시기가 될 것 같습니다.
[09:51]
무료 사용자들의 경우
[09:54]
실제로 언급된 바로는
[09:55]
ChatGPT 무료 티어에서도
[09:57]
GPT 5를 '표준 지능' 설정으로
[09:59]
무제한 이용할 수 있게 된다고 합니다.
[10:02]
여기서 주목할 점은 '표준 지능'이며
[10:05]
고급 지능은 아니라는 것입니다.
[10:06]
즉, GPT-3의 미니 고급 버전 같은
[10:09]
높은 수준의 기능은 없을 것이며
[10:11]
현재 우리가 접근할 수 있는
[10:13]
최고 수준의 지능이나
[10:15]
긴 사고 체인은
[10:17]
포함되지 않을 것입니다. 이는
[10:19]
DeepSeek이 매우 높은 수준의
[10:21]
지능을 아주 저렴한 가격에
[10:24]
제공하면서 취한 전략으로 보입니다.
[10:26]
이로 인해 사람들이 DeepSeek을
[10:28]
사용하는 것이 더 비용 효율적이
[10:30]
되었죠. 이는 정말
[10:32]
흥미로운 변화입니다.
[10:34]
또한 그들이 언급한 바로는
[10:36]
플러스 구독자들은
[10:38]
GPT 5를 더 높은 수준의
[10:40]
지능으로 실행할 수 있게 될 것이며
[10:42]
모델이 더 깊이 생각하고
[10:44]
긴 사고 체인에 접근할 수 있을 것으로 예상됩니다
[10:46]
그런 사고의 연결을 통해서
[10:48]
더 깊은 통찰력을 제공하게 될 것이고,
[10:50]
프로 구독자들은 GPT-5를
[10:53]
더 높은 수준의 지능으로
[10:55]
이용할 수 있게 될 것입니다.
[10:56]
이 모델들은 음성, 캔버스 검색, 심층 연구 등을
[10:59]
통합할 것입니다.
[11:00]
OpenAI가 하고자 하는 것은
[11:02]
기본 모델은 무료로 제공하지만,
[11:04]
음성, 캔버스 검색, 심층 연구 같은
[11:06]
고급 기능을 원한다면
[11:08]
아마도 최상위 등급인
[11:09]
월 200달러 정도를
[11:11]
지불해야 할 것 같습니다.
[11:13]
비싸게 느껴질 수 있지만,
[11:14]
OpenAI가 생각하는 것은
[11:16]
새로운 기능이 나올 때마다
[11:18]
GPT-5 시스템에
[11:20]
계속해서 추가될 것이라는 점입니다.
[11:22]
결과적으로 시스템이 점점 더 똑똑해지면서
[11:25]
여러분이 지불하는 비용 대비
[11:27]
가치는 계속 증가하게 됩니다.
[11:28]
이해가 되셨을 것 같네요.
[11:31]
정말 흥미로운 점은
[11:32]
가격 정책이 어떻게 될 것인가 입니다.
[11:35]
OpenAI는 사용량 기반 가격제도
[11:37]
논의 중인데, 월 200달러는
[11:38]
정말 엄청난 금액이죠.
[11:41]
제가 아는 사람들 중에는
[11:42]
이만큼의 가치를 얻을 수 있는 사람이
[11:44]
없을 것 같지만, 분명 사용하는
[11:46]
사람들이 있을 것입니다.
[11:48]
또 하나 흥미로운 점은
[11:50]
'GPT-5보다 똑똑할 수 있을까'입니다.
[11:52]
샘 알트만이 언급했는데,
[11:53]
자신도 GPT-5보다
[11:55]
똑똑하지 않을 것이라고 생각한다고 합니다.
[11:57]
'GPT-4보다 자신이 더 똑똑하다고 생각하는 사람이 몇 명이나 될까요?'
[12:01]
'자, 그럼 GPT-5보다
[12:03]
더 똑똑할 거라고 생각하는 사람은 몇 명이나 될까요?'
[12:07]
'더 많은 손이 올라갈 줄 알았는데요.'
[12:11]
'저는 GPT-5보다 똑똑하지 않을 것 같아요.
[12:13]
하지만 그것이 슬프지는 않습니다.
[12:15]
왜냐하면 이를 통해 우리가
[12:17]
놀라운 일들을 할 수 있게 될 것이기 때문이죠.
[12:19]
우리는 더 많은 과학적 발전을 원합니다.
[12:22]
더 많은 연구자들이
[12:25]
이전에는 할 수 없었던 일들을
[12:27]
할 수 있게 되길 바랍니다.
[12:29]
이것이 바로 인류의
[12:31]
오랜 역사가 보여주는 것입니다.
[12:34]
이번에는 조금 다르게 느껴지는데,
[12:36]
그것이 가능케 할 수 있는 것들 때문입니다.
[12:38]
과학자들이 이 놀라운 고지능 도구를 가지고
[12:41]
올바른 질문을 찾는 데 더 집중하고
[12:43]
더 빠르게 문제를 해결하며
[12:44]
연구를 가속화할 수 있다면
[12:46]
그것은 우리 모두에게 승리입니다.
[12:48]
우리는 이것을 제공하게 되어 기쁩니다.
[12:50]
그렇다면 여러분은
[12:52]
GPT-5에 대해 어떻게 생각하시나요?
[12:54]
저는 통합 지능이
[12:56]
정말 기대됩니다.
[12:57]
이 모델들을 하나로 통합하는 것이
[12:59]
실제로 매우 합리적으로 보입니다.
[13:02]
작업 효율성과
[13:03]
모델의 단순성 측면에서
[13:05]
아주 이치에 맞죠. 마케팅에서
[13:08]
유명한 사례가 있는데,
[13:09]
여러분이 모를 수도 있지만
[13:11]
비즈니스 교훈으로 들어보세요.
[13:13]
잼 가게 사례인데,
[13:15]
두 개의 가게가 있었습니다.
[13:17]
하나는 24종류의 잼을, 다른 하나는
[13:19]
6종류의 잼을 판매했습니다.
[13:21]
24종류가 있는 가게에서는
[13:23]
선택지가 더 많으니까
[13:25]
더 많이 팔릴 거라고 생각했지만
[13:26]
오직 3%만이 구매했습니다.
[13:29]
반면 6종류만 있던 가게에서는
[13:30]
30%가 구매했죠.
[13:33]
이는 선택지가 너무 많으면
[13:34]
오히려 결정을 못 한다는 것을
[13:36]
보여줍니다.
[13:38]
AI도 마찬가지입니다. ChatGPT에서
[13:40]
GPT-4, 4.1, 3-mini, 3-mini High 등
[13:44]
너무 많은 선택지가 있는 게 문제죠.
[13:45]
Claude는 3개 정도의 모델이 있고
[13:47]
Gemini는 1-2개 정도의
[13:49]
모델만 있습니다.
[13:50]
사실 Gemini도
[13:52]
모델이 좀 많은 편인데,
[13:53]
중요한 점은 Claude처럼
[13:55]
모두가 Claude 3.6을 쓰는 것처럼
[13:57]
하나의 모델을 쓰고,
[13:58]
DeepSeek처럼
[13:59]
기본 씽킹 모델 하나만
[14:01]
사용하는 게 낫다는 거죠.
[14:03]
현재는 선택지가 너무 많아서
[14:04]
앞으로는 이 모든 것이
[14:06]
하나의 큰 모델로 통합될 것 같습니다.
[14:08]
자, 이것으로 마무리하겠습니다.
[14:10]
영상을 봐주셔서 감사하고
[14:11]
다음 영상에서 만나요.