[00:00]
점점 더 구글이
[00:01]
AI 경쟁의 최종 승자가 될 것 같습니다.
[00:02]
얼마 전 Gemini 2.0이 출시되었을 때도 다뤘었는데,
[00:05]
그 이후로 이 모델에 완전히 매료되었습니다.
[00:06]
성능이 너무 뛰어나고 비용도 저렴해서
[00:08]
실제로 T3 Chat의 기본 모델로
[00:09]
채택하게 되었죠.
[00:11]
그리고 그 결정이 정말 만족스럽습니다.
[00:13]
성능도 훌륭하고 답변의 품질도 뛰어나고,
[00:15]
속도까지, 모든 면에서 완벽합니다.
[00:17]
그들은 정말로 혁신적인
[00:19]
일을 해내고 있죠. 하지만 오늘은
[00:20]
Gemini 2.0 얘기가 아닙니다. 구글이
[00:22]
새로운 모델을 출시했는데, 저는
[00:24]
완전히 충격을 받았거든요. Gemini 2.5 Pro가 출시되었고
[00:26]
제가 보고 있는 모든 것이
[00:28]
정말 대단합니다. 응답 속도부터
[00:30]
성능, 벤치마크 결과,
[00:31]
그리고 현재 시장에 있는
[00:33]
다른 모든 것들을 압도하는
[00:35]
수준입니다. 이 모델에는 정말
[00:37]
흥미로운 요소들이 많아서
[00:38]
여러분께 꼭 알려드리고 싶습니다.
[00:40]
하지만 먼저 스폰서 광고를
[00:41]
잠깐 보고 오겠습니다.
[00:42]
바로 시작하겠습니다.
[00:44]
오늘의 스폰서는 Augment Code입니다.
[00:45]
웹사이트에 있는 내용을
[00:46]
그대로 전달하기보다는
[00:48]
제가 직접 경험한 예시를
[00:49]
들려드리고 싶습니다.
[00:50]
Augment는 대규모 코드베이스에 특히 강점이 있는데,
[00:53]
이는 대규모 코드베이스를
[00:54]
이해하려고 할 때 정말 유용합니다.
[00:56]
제가 이해하고 싶었던 예시가 있는데,
[00:58]
바로 Rocky Corp 모노레포입니다.
[00:59]
이 모노레포에는 여러 패키지를 위한
[01:01]
엄청난 양의 코드가 있는데,
[01:03]
replicache의 전체 코드와
[01:04]
포스트그레스 기반의 zero sync 엔진
[01:06]
전체 코드가 포함되어 있습니다.
[01:07]
이 엔진들이 매우 안정적이라는 걸 알고
[01:09]
T3 chat에서 활용하기 위해 더 자세히
[01:11]
이해하고 싶었습니다. 안타깝게도
[01:13]
이것은 TypeScript 부분만 해도 약 20만 줄에 달하는
[01:16]
거대한 코드베이스입니다. 이걸
[01:18]
빠르게 분석하기는
[01:19]
어렵죠. 그래서 VS Code를 열고
[01:21]
레포를 클론한 뒤 인덱싱을 했는데,
[01:23]
놀랍게도 매우 빠르게 처리되었고,
[01:25]
이제 이 코드베이스에 대해
[01:26]
질문을 할 수 있게 되었습니다.
[01:28]
얼마나 빠른지 보여드릴까요?
[01:29]
실시간으로 보여드리겠습니다.
[01:31]
'zero의 클라이언트 측에서
[01:32]
데이터를 로컬에 저장하는 코드가 어디 있나요?'라고 물었죠.
[01:35]
다시 한 번 물어보면, 이건
[01:37]
실시간입니다. 놀라울 정도로 빠르게
[01:39]
응답이 시작되고, 이 거대한 코드베이스의
[01:41]
모든 맥락을 파악하여 각각의
[01:43]
요소들을 찾아내고 질문에 답변합니다.
[01:45]
이것이 replicash 저장소와
[01:47]
어떻게 다른가요?
[01:49]
[01:54]
Zero 저장소는 사실 replicash 저장소
[01:55]
시스템 위에 구축되었지만
[01:57]
주요 차이점과 추가 계층이 있습니다.
[01:58]
주요 차이점을 설명해드리겠습니다.
[02:00]
이런 거대한 코드베이스를
[02:01]
분석할 때 얼마나 유용한지
[02:03]
아시나요? 참고로
[02:05]
T3 chat 코드베이스는 17,000줄입니다.
[02:07]
즉, 이건 10배나 더 큰 코드베이스인데도
[02:10]
거의 즉각적으로 질문에 답변할 수 있습니다.
[02:12]
1초도 안 되어서 답변이 시작되죠.
[02:14]
답변을 받기 시작합니다.
[02:16]
답변을 시작하죠. 대규모 코드베이스에
[02:17]
적응하려 하거나 팀이 비즈니스의
[02:19]
전반적인 아키텍처를 더 잘 이해하도록
[02:21]
돕고 싶을 때, Augment는 바로 그런
[02:23]
사용 사례를 위한 AI 도구를 만드는 회사입니다.
[02:25]
거대한 코드베이스에 도움이 필요하다면,
[02:27]
오늘 soyv.link/ugmentcode에서 무료로 사용해보세요.
[02:31]
자, Gemini 2.5는 어떤가요?
[02:32]
2.5는 점점 더 복잡한 문제를 해결하도록 설계된 사고 모델입니다.
[02:36]
우리의 첫 번째 2.5 모델인
[02:38]
2.5 Pro 실험 버전은 일반적인
[02:40]
벤치마크에서 의미 있는 차이로 앞서고 있으며,
[02:42]
뛰어난 추론 능력과
[02:44]
코드 작성 능력을 보여줍니다.
[02:46]
이것은 출시되자마자
[02:47]
LM Arena에서 선두를 차지한
[02:50]
모델 중 하나라는 점이 꽤 인상적입니다.
[02:52]
와우, Gemini가 출시되자마자 바로
[02:56]
1위를 차지했네요.
[02:58]
GPT4.5와 DeepSeek, 그리고 다른
[03:00]
우수하다고 알려진 모델들을
[03:02]
모두 제쳤습니다. 가격도
[03:04]
훨씬 저렴할 것 같네요.
[03:06]
아직 가격은 공개되지 않았지만,
[03:08]
이전 프로 모델들과 달리
[03:10]
곧 유료 티어로
[03:11]
제공될 것이라고 확인했는데, 이는 아주 중요합니다.
[03:13]
왜냐하면 지금까지는
[03:15]
무료 모델을 T3 Chat과 같은 곳에
[03:17]
추가하는 것을 걱정했었거든요.
[03:19]
그러면 사용량 제한이
[03:21]
더 엄격하게 적용될 것이기
[03:22]
때문이죠. 돈을 내지 않으면
[03:24]
제공하는 서비스를 유지할
[03:25]
이유가 없지만, 돈을 지불하면
[03:27]
아마 계속 유지할
[03:28]
것입니다. 그래서 매우 기대가 됩니다.
[03:30]
그렇다고 해서 우리가
[03:32]
T3 Chat에 새 모델을 추가하는 것을
[03:34]
멈추지는 않았습니다. 실제로
[03:36]
구글의 담당자들과 연락해서
[03:38]
Gemini를 일찍 추가할 수 있었고
[03:40]
사용량 제한도 충분히 높아서
[03:42]
T3 Chat에서 사용하는 데
[03:44]
문제가 없을 거라고 확신합니다.
[03:47]
T3 Chat 프로 구독자라면
[03:48]
월 8달러밖에 안 하죠.
[03:50]
우리가 합리적으로 추가할 수 있는
[03:51]
최신 모델들을 모두
[03:53]
이용할 수 있습니다. 아직 구독하지 않았다면,
[03:55]
더 쉽게 시작할 수 있게 해드릴게요.
[03:56]
첫 달 50% 할인
[03:58]
쿠폰 코드가 있습니다. 단 4달러로
[03:59]
모든 모델에서 1,500개의 메시지를
[04:02]
보낼 수 있죠. 제가 보기에는 정말 대단한 거래예요.
[04:04]
하지만 빨리 사용하셔야 해요.
[04:06]
왜냐하면 이 쿠폰은
[04:07]
선착순 200명에게만
[04:08]
제공되거든요. 제가 볼 때
[04:10]
현재 우리에게 없는 유일한 멋진 모델은 Gro에요.
[04:12]
2개월 전부터 API를 약속했는데도
[04:15]
아직도 Gro 3 API를
[04:17]
출시하지 않았거든요. 말도 안 되죠.
[04:19]
XAI 팀이 거짓말을 하고 있는 거예요.
[04:21]
정말 지쳤습니다. 어쨌든,
[04:24]
구글은 모델을 개선하기 위해
[04:25]
다양한 기술에 많은 시간을
[04:27]
투자해왔습니다. 우리가 전에
[04:28]
여러 번 이야기했던 흥미로운 것들이죠.
[04:30]
2.5는 이 모든 것들이 하나로
[04:32]
통합된 결과입니다. 크게 향상된
[04:34]
기본 모델과 개선된 사후
[04:35]
학습을 결합했죠. 앞으로도
[04:37]
이러한 사고 능력을 모든 모델에
[04:38]
직접 구축하고 있어서
[04:40]
더 복잡한 프롬프트를 처리하고
[04:41]
더 강력한 맥락 인식 에이전트를 지원할 수 있습니다.
[04:44]
지금까지 구글 이전 모델들의
[04:45]
사고 기능은 마치 덧붙여진 것처럼
[04:47]
'이것에 대해 생각해봐'라고 하면
[04:50]
실제 답변을 재프롬프트하는 방식이었죠.
[04:52]
하지만 이제는 모델에 제대로 내장된
[04:54]
기능이면서도 다른 모델에도
[04:57]
적용할 수 있게 되었습니다.
[04:59]
저는 이것이 어떻게 구현될지
[05:00]
정말 기대가 됩니다.
[05:01]
기술적인 이야기는 여기까지하고,
[05:03]
이 벤치마크 결과들을 보시죠.
[05:05]
OpenAI GPT-3.5의 humanity last 시험에서 압도적인 성과를 보였는데,
[05:09]
이는 정말 대단한 성과입니다.
[05:12]
특히나 이 시험이
[05:14]
OpenAI가 LLM의 더 나은 벤치마크를 찾기 위해
[05:18]
만든 것이라는 점을 고려하면, 구글이
[05:21]
OpenAI의 자체 벤치마크에서 이긴 것은
[05:23]
정말 놀랍습니다. 특히 GPT-3.5가
[05:25]
얼마나 좋은지를 생각하면 더욱 그렇죠.
[05:27]
저는 한동안 이 모델을 가장 좋아했는데,
[05:29]
이제 Gemini가 더 나은 것을 내놓으면서
[05:30]
제 선호도가 바뀔지 궁금하네요. 수학에서도
[05:33]
특히 뛰어난 성능을 보여주는데,
[05:35]
다른 모델들과 수학 성능이
[05:37]
좀 불안정했던 것에 비하면 정말 좋습니다.
[05:39]
보시다시피 GPT-4.5는 수학을 잘 못하고, Claude 3.7은 그런대로
[05:43]
괜찮은데, 특히 재미있는 점은
[05:45]
이전 Gemini Flash의 수학 응답이
[05:47]
얼마나 좋지 않았는지를 생각하면
[05:49]
더욱 그렇죠. 이렇게 수학 성능이
[05:51]
향상된 걸 보니 기쁩니다. 하지만
[05:52]
코딩에서는 아직 최고는 아닙니다.
[05:54]
Claude의 대안을 찾고 계신
[05:55]
분들을 위해 말씀드리자면, 사고형 모델들은
[05:58]
아직 에디터에서 사용하기에
[05:59]
좋은 경험을 제공하지 못합니다.
[06:00]
저는 여러 번 Cursor와 다양한 사고형
[06:02]
모델들을 사용해봤는데,
[06:05]
즉각적인 응답을 받는 것만큼
[06:06]
좋지는 않았습니다. 물론
[06:08]
앞으로는 해결될 것 같은데,
[06:10]
특히 병렬 다중 에이전트
[06:11]
시스템이 도입되면 더욱 그럴 것 같지만,
[06:13]
지금은 최적의 경험은 아닙니다.
[06:15]
결과도 그리 좋지 않아 보이고요.
[06:16]
코딩에서 사고형 모델의 또 다른 문제는
[06:18]
자체적인 사고 과정에서
[06:20]
스스로를 현혹시키면서
[06:21]
의도하지 않은 일을 한다는 겁니다.
[06:23]
예를 들어 공 프롬프트에서
[06:25]
사고형 모델들이
[06:27]
중력이 반대 방향으로 작용해야 한다고
[06:29]
스스로를 설득해서 공을 위로 보내버리더라구요.
[06:31]
문제는 모델이 더 많은 맥락을 만들어내면서
[06:33]
사용자로부터 오는 맥락이
[06:34]
줄어들게 되고,
[06:36]
그만큼 오류가 발생할 여지가
[06:38]
더 많아진다는 거죠. 환각이 발생할
[06:39]
공간이 더 많아지니까요.
[06:42]
제가 진행한 테스트 결과를
[06:44]
빠르게 보여드리고 싶은데요.
[06:46]
제 Cursor를 열어보면,
[06:49]
여러 모델들이 각각 다른 버전의
[06:51]
테스트를 생성한 것을 볼 수 있습니다.
[06:54]
여기서 Gemini 버전을 실행하면
[06:56]
꽤 잘 작동하다가 갑자기
[06:57]
멈춰버리는 걸 보실 수 있어요.
[07:00]
잘 될 것 같았는데 그러지 못해서 너무 아쉽더라구요.
[07:02]
정말 잘 작동하는 것 같다가
[07:03]
모서리를 만나면 그냥 멈춰버립니다.
[07:06]
모서리에서 올바른 각도로 돌다가
[07:08]
그냥 떨어져 버립니다.
[07:13]
참고로 곧 새로운 영상이 나올 예정인데,
[07:16]
Deepseek이 방금 V3 모델의
[07:18]
업데이트 버전을 출시했어요.
[07:20]
이 프롬프트에 대해 지금까지 본 것 중
[07:22]
가장 좋은 응답 중 하나를 보여줬죠.
[07:25]
정말 잘 작동합니다. 애니메이션이
[07:27]
매우 부드럽진 않지만,
[07:29]
공이 구르다가 떨어질 것 같은
[07:30]
문제가 있어도 다시
[07:32]
튕겨져 돌아옵니다. 훨씬 더 잘 작동하고 있죠.
[07:35]
다른 사람들도 같은 프롬프트와
[07:36]
더 복잡한 버전으로
[07:39]
다양한 모델들을 테스트해봤어요.
[07:41]
여기 Flavio가 바로 이 육각형 안의
[07:44]
공 컨셉의 창시자인데요.
[07:45]
단순해 보일 수 있지만,
[07:47]
모델의 코딩 능력을 직관적으로 평가하는
[07:50]
좋은 벤치마크라고 생각합니다.
[07:52]
물론 이게 전부는 아니에요.
[07:53]
실제 에디터에서의 경험과는
[07:54]
다를 수 있지만,
[07:56]
우리가 많이 배울 수 있는
[07:58]
재미있는 벤치마크예요.
[08:00]
방금 보셨듯이 Gemini 버전도 여전히
[08:02]
육각형에서 공이
[08:04]
떨어지긴 하지만, 전반적으로는 좋아요.
[08:07]
범용 모델로서는 정말 훌륭하죠,
[08:09]
특히 구글이 제공하는
[08:10]
모든 기능을 고려하면 더욱 그렇습니다.
[08:12]
구글 모델들은 몇 가지
[08:14]
정말 좋은 특징들이 있어요.
[08:16]
먼저 그라운딩 기능이 있죠.
[08:19]
그라운딩은 검색을 위한
[08:20]
그들만의 코드워드입니다. 이미지 파싱도 있는데,
[08:23]
이것도 정말 유용하죠.
[08:25]
최근에는 이미지 편집 기능도 추가됐고요.
[08:28]
하지만 가장 과소평가된 기능 중 하나는
[08:30]
100만 토큰의 입력 컨텍스트 윈도우예요.
[08:34]
이건 정말 대단한 거예요.
[08:37]
100만 개의 입력 토큰을
[08:39]
처리할 수 있다는 게 믿기지 않죠.
[08:41]
각 토큰이 4-6자 정도라는 걸
[08:43]
생각하면 엄청난 양이에요.
[08:46]
다른 주요 모델들이 지원하는
[08:48]
최대치가 10-20만 정도인데,
[08:51]
100만이면 기존에는
[08:52]
불가능했던 일들을 할 수 있죠.
[08:54]
최근에 제가 실제로 해본
[08:56]
예시가 있는데,
[08:57]
너무 놀라워서 함께 보여드리려고 해요.
[08:59]
이건 'Build Different' 블로그예요.
[09:01]
제가 좋아하는 음악 블로그인데,
[09:03]
업데이트가 자주 되지 않아요.
[09:06]
별로 좋지 않은 Blogspot 웹사이트라
[09:08]
YouTube와 SoundCloud 영상들이
[09:10]
사이트에 직접 임베드되어 있고
[09:13]
둘러보기도 힘들고
[09:15]
모바일에서는 거의 사용할 수 없어요.
[09:17]
이걸 플레이리스트로 만들고 싶었죠.
[09:19]
그래서 일반적인 엔지니어라면
[09:21]
하게 될 일을 했어요.
[09:24]
소스를 가져와서 Gemini에게
[09:27]
이렇게 말했어요. "YouTube와 SoundCloud
[09:31]
링크가 있는 iframe 임베드가 포함된 HTML을 줄 텐데,
[09:35]
콘솔에 붙여넣을 수 있는
[09:39]
자바스크립트 스크립트를 작성해서
[09:43]
모든 링크를 가져와줘."
[09:46]
지시사항을 주고
[09:48]
이 엄청난 양의 HTML을 붙여넣었어요.
[09:50]
코드 블록으로 감싸진 않았는데,
[09:51]
너무 방대해서 파싱이
[09:53]
깨질 수 있거든요. 정말
[09:56]
엄청나게 큰 양이에요.
[09:59]
동기화가 깨질 정도로 너무 방대한 양이에요.
[10:00]
포맷팅을 인식할 수 있길 바라면서 테스트로 해봤어요.
[10:02]
여기서는 실행할 수 있는 자바스크립트 코드를 제공해주네요.
[10:04]
이전에 제가 놀랐던 결과를
[10:06]
보여드리겠습니다.
[10:07]
이번에는 그렇게 하지 않았지만,
[10:09]
정말 놀라웠던 걸 보여드릴게요.
[10:11]
예상 출력이 어떻게 되는지
[10:12]
보시면,
[10:17]
여기서 모든 링크를 정확하게 추출했어요.
[10:21]
처음에는
[10:22]
아무런 프롬프트 없이도 이걸 해냈는데 믿기지가 않았어요.
[10:26]
그래서 직접 스크립트를 가져와서 실행해보고
[10:28]
정확히 작동하는지 확인했죠.
[10:30]
여기 제가 처음 시도했을 때의 채팅 기록이 있어요.
[10:34]
보시다시피 HTML이 동기화 문제로 깨져있지만,
[10:36]
스크롤을 내려보면 터미널이나
[10:39]
콘솔에서 실행할 수 있는 코드를 제공했고,
[10:41]
그 방대한 HTML에서
[10:44]
모든 링크를 정확하게
[10:46]
추출해냈어요. 정말
[10:48]
놀라웠죠. AI 모델이 이런 걸
[10:50]
해낼 거라고는 전혀 예상하지 못했거든요.
[10:54]
그래서 본능적으로
[10:56]
이걸 실행할 코드를 요청했던 거예요.
[10:58]
이렇게 복잡한 작업을
[10:59]
제대로 처리할 거라고 기대하지 않았기 때문이죠.
[11:01]
하지만 이런 종류의 작업을
[11:04]
스스로 파악하고 처리한다는 게 정말 대단해요.
[11:06]
저는 한동안 기본 모델로
[11:08]
Flash를 사용해왔는데,
[11:10]
이건 정말 놀라운 리소스가 되어주고 있어요.
[11:12]
새로운 모델을 활용해서
[11:13]
한번 시도해볼까요?
[11:15]
새로운 thinking 모델이
[11:18]
얼마나 잘 작동하는지 궁금하네요.
[11:21]
2.5 Pro로 HTML을 다시 가져와볼게요.
[11:23]
오, HTML도 없는데 벌써 코드를 작성했네요.
[11:27]
여기 HTML이 있는데,
[11:28]
출력이 어떻게 되어야 하는지 보여주세요.
[11:31]
참고로 이건 정말 엄청난 양의 정보예요.
[11:35]
71,000 토큰,
[11:37]
222,000자나 되는
[11:38]
어마어마한 양이에요.
[11:42]
이론적으로는 다른 컨텍스트 윈도우에도
[11:44]
들어갈 수 있는 크기지만,
[11:46]
확실히 처리하는 데 시간이 좀 걸리네요.
[11:48]
채팅에 따르면 이미지 추출도
[11:50]
잘 한다고 하네요.
[11:52]
Christian이 맥락을 설명해줬네요.
[11:53]
전혀 놀랍지 않아요.
[11:55]
그리고 이것 말고도
[11:57]
구글이 제공하는 다른 기능들도
[11:58]
매번 기본으로 선택하게 만드는 요인이에요.
[12:01]
PDF 지원이 기본으로 되어있고
[12:03]
할 수 있는 작업들이 정말 대단해요.
[12:05]
엄청난 양의 페이지를 처리할 수 있고
[12:07]
PDF에서 이미지, 그래프, 차트도
[12:09]
분석할 수 있어요. 다른 AI 모델의
[12:11]
이미지 파서들은 이 정도 수준의
[12:13]
기능을 제공하지 못해요.
[12:16]
여기 결과가 나왔네요.
[12:18]
61개의 iframe을 찾았고,
[12:20]
소스를 확인해보니
[12:22]
전부 정확하게 추출됐어요.
[12:25]
총 61개의 iframe 중 60개가
[12:26]
YouTube나 Soundcloud를 포함한
[12:28]
소스 속성을 가지고 있네요.
[12:29]
정말 좋아요. 앞으로 자주 사용하게 될 것 같아요.
[12:32]
구글은 고급 코딩 기능에
[12:35]
집중했다고 하는데,
[12:36]
다른 모델들만큼 좋지는 않더라도
[12:37]
발전 속도가 정말 놀랍네요.
[12:39]
지금까지 Gemini로 코딩할 때는
[12:42]
특히 Flash 버전에서는
[12:43]
50/50 정도의 성공률을 보였는데,
[12:45]
이번엔 정말 희망적인 결과를 보여줬어요.
[12:48]
커스텀 에이전트 설정이 큰 도움이 된다고 하더군요.
[12:49]
그들이 Five Vibe 코딩 게임 예제를 보여줬나요?
[12:52]
정말 봐야겠네요.
[12:54]
아, 소리가 없네요.
[13:28]
원샷 생성치고는 나쁘지 않네요.
[13:32]
그들이 제로샷 생성이라고 부르는 것을
[13:34]
자랑하는 게 재미있어요.
[13:35]
최소한의 노력으로 모든 것을 파악하는
[13:37]
능력이 정말 뛰어난 것 같아요.
[13:39]
또 다른 흥미로운 점은
[13:41]
제가 정말 기대하는 건
[13:42]
곧 200만 토큰의
[13:44]
컨텍스트 윈도우가 나온다는 거예요.
[13:47]
정말 엄청난 일이죠. 대부분의
[13:49]
코드베이스를 처리하기에 충분할 거예요.
[13:52]
우리 코드베이스를 토큰으로 변환해보니
[13:54]
일부는 10만 토큰도 안 되고
[13:56]
대부분이 200만 토큰 이내더군요.
[13:58]
RA나 다른 조회 도구 없이도
[14:00]
전체 코드베이스에 대한 컨텍스트를
[14:02]
모델이 가질 수 있다고 생각해보세요.
[14:04]
정말 인상적인 발전이에요.
[14:07]
그럼 구글이 왜 이렇게 앞서 있을까요?
[14:09]
어떻게 이렇게 빠르고
[14:11]
저렴하게 좋은 모델을 만들 수 있을까요?
[14:13]
모델의 성능을 결정하는
[14:16]
몇 가지 핵심 요소가 있습니다.
[14:18]
이것들을 하나씩 살펴보면서
[14:20]
구글이 왜 이렇게 유리한 위치에 있는지
[14:22]
설명해드리겠습니다. 좋은 모델을
[14:25]
만들고 운영하기 위해서는
[14:27]
몇 가지 핵심 요소가 필요합니다.
[14:29]
데이터, 하드웨어, 그리고
[14:33]
과학이 바로 그것입니다.
[14:37]
이 세 가지가 AI 모델의
[14:39]
성능을 결정하는 요소죠.
[14:41]
다양한 데이터 소스와
[14:43]
데이터의 품질, 필터링,
[14:45]
분류 등 모든 것이
[14:48]
AI 모델의 성공에 필수적입니다.
[14:50]
AI 모델이 주어진 데이터보다
[14:52]
더 똑똑해지는 것은 불가능하죠.
[14:54]
그래서 많은 데이터가 필요합니다.
[14:56]
어떻게 될지 짐작되시나요?
[14:59]
다음은 과학입니다. 이 모든 것을
[15:01]
가능하게 하는 기술과 테크닉을
[15:03]
아는 실제 전문가들이죠.
[15:05]
LLM 배후의 과학은 단순하면서도
[15:07]
기초적이지만, 동시에 매우 복잡하고
[15:09]
이해하기 어렵습니다.
[15:11]
수십 년간 연구된 분야이고,
[15:14]
구글은 이 분야의
[15:15]
선두주자였습니다.
[15:17]
구글 번역이 실제로
[15:19]
이전 입력을 기반으로 다음 단어를
[15:21]
예측하는 최초의 LLM 사례 중
[15:23]
하나라고 볼 수 있죠.
[15:25]
구글은 이런 과학과 머신러닝 분야에서
[15:28]
깊은 역사를 가지고 있어
[15:30]
큰 이점을 가지고 있습니다.
[15:32]
그리고 하드웨어가 있습니다.
[15:34]
지금까지는 NVIDIA GPU와
[15:36]
CUDA에 의존해 모델 학습과
[15:38]
생성, 그리고 추론을 해왔죠.
[15:40]
이런 GPU들이 좋기 때문입니다.
[15:42]
많은 칩이 탑재되어 있어 빠른 속도를 냅니다.
[15:44]
고성능 GPU에 있는
[15:45]
엄청난 수의 연산 유닛으로
[15:48]
거대한 양의 데이터에 대해
[15:50]
대규모 변환이 가능합니다.
[15:53]
하지만 NVIDIA가 최고는 아닙니다.
[15:55]
제가 여러 번 언급했던
[15:57]
회사가 있는데,
[15:59]
여러분도 들어보셨을 겁니다.
[16:00]
Rock을 소개해드리고 싶은데요. 이 회사는
[16:03]
추론을 위한 더 나은 칩을 만들려고 하는
[16:05]
소수의 기업들 중 하나입니다.
[16:07]
다음 단어를 예측하기 위해 방대한 단어 맵을
[16:10]
분석하는 작업은 매우 도전적인 과제입니다.
[16:12]
그리고 이런 도전적인 과제에서
[16:15]
GPU가 놀랍게도
[16:16]
CPU와 비교했을 때
[16:18]
매우 뛰어난 성능을 보여줍니다. 하지만 이론적으로
[16:20]
더 나은 성능의 칩을 만들 수 있습니다.
[16:21]
Web3와 암호화폐 채굴의 혼란기를
[16:23]
겪어보신 분들이라면,
[16:25]
ASIC 혁명을 기억하실 것입니다.
[16:28]
초기에는 암호화폐를 채굴할 때
[16:29]
GPU를 사용했습니다.
[16:32]
채굴이란 다음 거래 세트를 검증하기 위해
[16:34]
블록을 해제하는 복잡한 수학 문제를
[16:37]
푸는 것이었고,
[16:39]
많은 사람들이 경쟁하면서
[16:40]
그 블록의 코드를 해독하여
[16:41]
비트코인 보상을 받으려 했죠.
[16:43]
이 작업은 GPU에서 수행되었는데,
[16:45]
이런 종류의 수학적 계산을
[16:46]
잘 처리했기 때문입니다. 하지만 암호화폐가
[16:48]
충분히 가치있게 되자,
[16:51]
몇몇 회사들이 이러한 특정 계산만을
[16:53]
더 잘 수행하는 전용 카드와 칩을
[16:56]
개발하기 시작했습니다. 만약
[16:58]
수학 문제의 정확한 형태를 알고 있다면,
[17:00]
그에 맞춰 칩을 설계하여
[17:02]
더 나은 성능을 얻을 수 있습니다. 그리고 이것이
[17:04]
Grock과 같은 회사들이 하는 일입니다.
[17:06]
Grock의 추론 속도가
[17:08]
믿을 수 없이 빠른 이유는 전용 칩을
[17:10]
사용하기 때문입니다. 참고로,
[17:12]
Q로 끝나는 Grock은
[17:14]
K로 끝나는 XAI Grock과는 전혀
[17:16]
다른 회사입니다. Q로 끝나는 Grock은 칩 제조와
[17:19]
자체 개발하지 않은 모델의
[17:21]
호스팅을 제공합니다. 우리도 실제로
[17:23]
T3 채팅에서 많이 사용하고 있죠.
[17:25]
얼마나 빠른지 직접 보여드리겠습니다.
[17:27]
DeepS R1 Llama 디스틸드 모델로
[17:29]
가서 Advent of Code 2021의 5일차 문제를
[17:33]
파이썬으로 풀어보겠습니다.
[17:37]
이 속도가 보이시나요? 생각하는 속도가
[17:39]
너무 빨라서 스크롤로 따라가기도
[17:41]
힘들 정도입니다.
[17:44]
닫으면 답이 나오는 속도가
[17:47]
얼마나 빠른지 보실 수 있을 겁니다.
[17:49]
정말
[17:50]
말도 안 되게 빠르죠. 속도를
[17:54]
따라잡을 수도 없습니다.
[17:55]
이건 그들의 칩이 이런 종류의
[17:58]
작업에 매우 최적화되어
[17:59]
있기 때문입니다. 하지만 유연성은 떨어져서
[18:01]
칩에 내장된 이러한
[18:02]
제약 때문에 실행할 수 없는
[18:05]
모델들이 많습니다. 하지만
[18:06]
실행 가능한 모델도 많죠.
[18:08]
표준 DeepSec R1은 실행할 수 없지만,
[18:11]
Llama 디스틸드 버전은 실행할 수 있습니다.
[18:13]
Llama와 Qwen과 유사한 모델을 위해
[18:15]
설계되었기 때문이죠. Qwen과
[18:17]
Llama는 잘 처리합니다. R1 자체는
[18:19]
잘 처리하지 못하지만, Qwen이나 Llama로
[18:22]
디스틸된 R1은 훌륭하게 처리합니다.
[18:25]
자체 하드웨어를 가진다는 것이
[18:27]
얼마나 큰 이점인지 강조하자면,
[18:31]
Gemini가 다른 모델들보다
[18:33]
얼마나 빠른지 보세요. 정말 말도 안 되죠.
[18:38]
Gemini Flash는 너무나 빨라서
[18:40]
기본 모델로 사용하지 않는 것이
[18:41]
무책임할 정도입니다.
[18:43]
기존의 칩을 사용하는 다른 어떤 모델보다
[18:45]
이 정도 수준에 근접한 기업들은
[18:47]
Grock처럼 오래된 모델을
[18:49]
전용 하드웨어에서 빠르게 실행하는
[18:51]
기업들 뿐입니다. 혁신적인 모델과
[18:53]
혁신적인 속도를 동시에 가진 것은
[18:56]
현재 구글만의 독점적인 특징입니다.
[18:58]
이 지능과 속도 그래프를 보면
[19:00]
녹색 영역에 있는 것은 2.0 Flash
[19:02]
밖에 없습니다. 다른 모든 모델들은
[19:05]
현저히 느리거나 성능이 떨어지기
[19:07]
때문입니다. 제가 2.0 Flash를
[19:09]
강력히 추천하는 데는 이유가 있습니다.
[19:11]
정말 뛰어난 모델이고, 우리에게
[19:13]
훌륭한 성과를 보여줬죠. 이 멋진
[19:16]
차트와 데이터를 제공해 준
[19:18]
Artificial Analysis에게 감사드립니다.
[19:19]
이들 덕분에 이런 내용을 설명하는 게
[19:21]
훨씬 쉬워졌죠. 비용 차트도 빠르게
[19:23]
보여드리고 싶은데, 01 모델이 이
[19:25]
차트를 얼마나 왜곡시키는지가 재밌습니다.
[19:28]
01을 제외하기 전까지는 이 차트가
[19:30]
의미가 없을 정도로 너무 한쪽으로 치우쳐
[19:33]
있거든요. Gemini Flash는 여기서
[19:35]
Nova Micro와 Llama 31만큼
[19:38]
왼쪽에 위치해 있습니다. Nova Micro를
[19:40]
들어보셨다면 아시겠지만, 성능이
[19:42]
좋지 않은 모델임에도 40 Mini보다
[19:44]
더 저렴하면서도 더 똑똑합니다.
[19:46]
새로운 Gemini 모델이 포함된
[19:47]
업데이트된 차트가 기대됩니다. 하지만
[19:50]
지금 봐도 이 지능 대비 가격의
[19:53]
엄청난 효율성이 보이죠. 여기에
[19:54]
속도 차트까지 고려하면,
[19:56]
왜 다른 모델을 기본으로 선택할
[19:57]
이유가 있을까요? 저는 이제
[20:00]
T3 채팅에서 Gemini의 추적 방식을
[20:01]
변경하려고 합니다. 즉, 1500개
[20:04]
메시지 제한에 포함시키지 않으려고요.
[20:06]
너무 저렴하고 빠르기 때문에
[20:09]
사람들이 제한에 대해 걱정할
[20:10]
필요가 없기 때문입니다. 그럼 다른
[20:12]
회사 얘기를 왜 하는 걸까요?
[20:14]
그것은 구글이 자체 칩도
[20:16]
개발하고 있기 때문입니다. 구글은
[20:18]
자체 하드웨어도 개발하는 유일한 대형
[20:21]
AI 기업입니다. OpenAI는 그렇지 않고
[20:24]
그럴만한 인력이나 경험도 없죠.
[20:25]
당연히 Anthropic도 마찬가지입니다.
[20:27]
Grock같은 몇몇 다른 기업들이
[20:29]
하드웨어 분야에서 잘하고 있죠.
[20:31]
예시를 몇 가지 들어보겠습니다.
[20:33]
Grock, Cerebrus, Samba,
[20:35]
Nova가 있는데, 이들은 모두
[20:38]
하드웨어에만 집중하는 기업들입니다.
[20:40]
데이터 쪽으로 가면, Data Curve,
[20:42]
Scale AI 같은 기업들이 있는데,
[20:44]
이들은 데이터 수집에만 집중합니다.
[20:48]
다른 많은 기업들도 있지만
[20:49]
오직 데이터 수집만 하면서
[20:52]
모델을 학습시키는 기업들이
[20:54]
필요한 데이터를 쉽게 얻을 수
[20:55]
있도록 도와줍니다. 그리고 과학
[20:57]
분야에서는 당연히 OpenAI,
[20:59]
Deepseek, Anthropic 같은 기업들이
[21:02]
있죠. 역사적으로 이 분야의 기업들은
[21:05]
이 중 한 부분에만 집중해서
[21:07]
그것을 레버리지로 활용했습니다.
[21:10]
OpenAI, Deepseek, Anthropic은
[21:12]
과학에 올인해서 혁신적인 모델을
[21:13]
만들고 있죠. Data Curve와
[21:15]
Scale AI는 이 기업들이 필요로 하는
[21:16]
데이터를 수집하고 있고
[21:18]
이들과 계약을 맺고 있습니다.
[21:19]
필요한 데이터를 얻거나
[21:20]
트레이닝을 하고 있죠. 그리고 하드웨어 측면에서는
[21:22]
Groyer와 Samanova 모두
[21:24]
이러한 모델들을 실행하기 위한
[21:26]
최고의 하드웨어를 만드는 데 집중하고 있습니다.
[21:28]
여기서 한 회사를 더 추가해야 합니다.
[21:31]
이 모든 것의 기반이 되는 회사죠.
[21:33]
구글은 이 중 두 가지를 의미 있게 해낸
[21:36]
유일한 회사입니다. 세 가지는 말할 것도 없고요.
[21:38]
이는 구글을 매우 유리한 위치에 놓이게 했습니다.
[21:41]
수십 년간 인터넷을 운영하면서 얻은
[21:43]
무한한 데이터를 보유하고 있기 때문입니다.
[21:45]
또한 세계 최고의 과학자들이
[21:47]
놀라운 기술을 개발하고 있으며,
[21:49]
이 과학자들은 하드웨어 팀과
[21:50]
협력하여 모델이 맞춤형 하드웨어에서
[21:53]
최적의 성능을 발휘할 수 있도록
[21:55]
개발을 진행하고 있습니다.
[21:57]
이러한 과학 분야와 하드웨어 분야 간의
[21:59]
긴밀한 관계는 독보적입니다.
[22:02]
특히 모델 학습에 필요한
[22:03]
데이터까지 보유하고 있다는 점에서
[22:05]
다른 어떤 회사도 따라올 수 없죠.
[22:08]
처음부터 모델을 학습시키는 데 사용할 수 있는
[22:10]
데이터를 가지고 있으니까요.
[22:12]
이런 수준의 시너지와
[22:14]
결합을 보여주는 유일한 회사는
[22:16]
애플입니다. 물론 애플은 AI 분야에서는
[22:19]
앞서가지 못하고 있죠.
[22:21]
Apple Intelligence를 보면 알 수 있듯이요.
[22:23]
하지만 애플은 하드웨어와 소프트웨어를
[22:25]
통합적으로 관리하는 몇 안 되는 회사 중 하나입니다.
[22:27]
자사의 소프트웨어가 어떤 기기에서
[22:29]
실행될지 알고 있기 때문에
[22:30]
마이크로소프트와 같은 회사가
[22:32]
할 수 없는 가정들을 할 수 있죠.
[22:34]
구글도 같은 방식을 따르고 있습니다.
[22:36]
구글은 자사의 모델을 오픈소스로
[22:38]
공개하지 않기 때문에, NVIDIA GPU가 아닌
[22:41]
자체 칩에서만 실행된다고
[22:43]
가정할 수 있습니다. 이러한 가정은
[22:45]
다른 누구도 할 수 없는 많은 것들을
[22:48]
가능하게 만듭니다.
[22:50]
다른 모든 회사들은 이런 업체들과
[22:52]
파트너십을 맺어야 합니다. NVIDIA도 포함해서요.
[22:54]
모든 회사가 이런 칩 제조업체들과
[22:57]
협력해야 하지만, 구글은 그럴 필요가 없습니다.
[22:59]
다른 과학 그룹들은 데이터를 구매해야 하지만
[23:01]
구글은 그럴 필요가 없죠.
[23:03]
데이터 판매에만 집중하는 기업들처럼
[23:05]
고객을 찾을 필요도 없습니다.
[23:06]
구글은 그럴 필요가 없죠.
[23:08]
구글은 업계에서 독보적인 위치에
[23:09]
있어서 다른 어떤 기업도
[23:11]
근접하지 못할 정도입니다.
[23:13]
이러한 우위는 앞으로도 구글에게
[23:15]
놀라운 성과를 가져다 줄 것으로 예상됩니다.
[23:17]
모델의 놀라운 성능이나
[23:19]
처리 속도, 가격 면에서도요.
[23:21]
특히 가격은 정말 믿을 수 없을 정도입니다.
[23:24]
여기 가격을 보시면, Gemini Flash Light는
[23:26]
놀랄 만큼 저렴합니다.
[23:28]
비슷한 성능의 모델인
[23:30]
GPT-4와 비교하면, 입력과 출력 토큰 모두
[23:34]
25배나 저렴합니다.
[23:36]
이는 정말 믿기 힘든 수준이죠.
[23:39]
다만, Pro 모델의 가격은
[23:41]
아직 공개되지 않았습니다.
[23:42]
2.5가 아닌 2.0 Pro 버전이
[23:45]
아직 실험 단계이기 때문입니다.
[23:48]
구글은 실험 단계의 모델에 대해서는
[23:51]
요금을 부과하지 않습니다. 그래서
[23:53]
Pro 버전의 가격은 아직 모릅니다.
[23:54]
아직 가격에 대해서는 알 수 없지만,
[23:57]
Gemini와 비슷한 수준의 다른 모델들 간의
[23:59]
성능 차이가 매우 크다는 것을 고려하면,
[24:01]
이러한 격차는 계속될 것으로 예상됩니다.
[24:03]
성능에서 선두를 달리고 있음에도 불구하고,
[24:06]
Google이 가격 경쟁력에서도
[24:08]
앞설 것으로 예상합니다. T3 채팅에서
[24:10]
Gemini는 너무나 인기가 있어서
[24:12]
100만 개가 넘는 메시지가 전송되었는데,
[24:14]
이는 정말 놀라운 수치입니다.
[24:16]
비용 측면에서 보면, 100만 메시지에
[24:20]
약 1,200달러가 들었습니다. Claude는
[24:22]
절반도 안 되는 메시지 수로
[24:24]
31,000달러가 들었죠.
[24:26]
Claude의 3.5와 3.7이 2.0 Flash보다 나은 모델인가요?
[24:30]
네, 하지만 60배 이상 더 나은 건 아닙니다.
[24:33]
Gemini는 이전에는 불가능했던 일들을 가능하게 만들었습니다.
[24:38]
엄청난 컨텍스트 윈도우 크기와
[24:40]
가격 때문입니다.
[24:42]
Gemini 2.0으로 할 수 있는 일들은
[24:45]
정말 말도 안 되게 대단합니다.
[24:47]
앞으로 AI 서비스 요금이 이 정도 수준으로
[24:50]
낮아질 미래가 기대됩니다.
[24:53]
여기서 고려해야 할
[24:55]
다른 한 가지가 있습니다.
[24:57]
바로 자금입니다. Nvidia, Anthropic,
[25:01]
OpenAI, 그리고 당연히 Google을 제외한
[25:03]
다른 모든 회사들은 이런 연구를 위해
[25:06]
많은 투자를 해야 합니다.
[25:08]
이는 우려스러운 부분인데, 특히 요즘은
[25:11]
자금 조달이 예전만큼 쉽지 않기 때문입니다.
[25:14]
물론, Grock의 경우
[25:16]
최근에 대단한 거래를 성사시켜서
[25:19]
15억 달러 규모의 투자를
[25:21]
확보했습니다. 하지만 이는 즉시 받는 돈이 아니라
[25:24]
시간이 지나면서 받게 될 금액입니다.
[25:27]
고객사가 자사의 칩을 사용해
[25:28]
다양한 서비스를 출시하면서
[25:29]
점진적으로 받게 되는 거죠.
[25:31]
하지만 이는 Google이 자유롭게 쓸 수 있는
[25:34]
자금에 비하면 아무것도 아닙니다.
[25:36]
이는 Google이 이론적으로는
[25:38]
손실을 감수할 수 있다는 뜻이기도 합니다.
[25:40]
하지만 실제로 손실을 보고 있는지는 모릅니다.
[25:43]
그들이 사용하는 하드웨어 비용을
[25:45]
알 수 없기 때문입니다.
[25:46]
하드웨어에 대해서는
[25:48]
존재한다는 것과
[25:49]
꽤 좋아 보인다는 것 외에는
[25:51]
알려진 게 없습니다. 판매하지도 않고요.
[25:53]
이것이 아마도 Google과
[25:55]
다른 회사들의 가장 큰 차이점일 겁니다.
[25:56]
Google은 승리하기를 원하기 때문에,
[25:59]
개별 제품을 판매하는 대신
[26:01]
모든 것을 하나로 묶어서
[26:03]
API로 제공할 것입니다.
[26:05]
OpenAI는 Azure와 협력하여
[26:07]
자체 인프라를 구축했지만,
[26:09]
Azure에서 직접 OpenAI 모델을
[26:10]
호스팅할 수 있습니다. Deepseek는
[26:12]
거의 항상 다운되어 있는 API가 있어서
[26:14]
모델을 직접 호스팅해야 합니다.
[26:15]
Anthropic는 엄청나게 비싸고
[26:18]
특히 최근 수요가 많아지면서
[26:20]
가동 시간도 터무니없이 불안정한
[26:22]
API를 가지고 있지만, GCP나 AWS같은
[26:24]
다른 클라우드 제공업체에서 호스팅이 가능합니다.
[26:28]
하지만 Google은 절대로 자사의 모델을
[26:30]
다른 클라우드에서 사용하도록 허용하지 않을 겁니다.
[26:32]
Google에게는 자체 GCP가 있기 때문이죠.
[26:34]
이것은 거의 플랫폼이라는
[26:37]
또 다른 카테고리로 분류될 수 있습니다.
[26:39]
Google은 AWS나 Azure와 같은 실제 클라우드 플랫폼을 보유하고 있으니까요.
[26:42]
Google Cloud Platform이 있죠. 그리고 제가
[26:44]
과거에 많이 조롱했던 것처럼,
[26:45]
오늘도 방해가 많이 되어서
[26:46]
조롱했지만, 실제로 존재하고 작동합니다.
[26:49]
엉망진창이긴 하지만, 그럼에도 불구하고
[26:52]
이러한 분야들에서 너무나 강력하기 때문에
[26:55]
그들은 이를 극복할 수 있습니다.
[26:56]
정말 놀라운 일이죠.
[26:59]
지난 10년 동안 Google Cloud를
[27:00]
계속해서 비판해왔지만,
[27:03]
지금은 그 어느 때보다도
[27:05]
더 많이 사용하고 있고,
[27:06]
다른 플랫폼들보다도 더 자주
[27:08]
대시보드를 들여다보고 있습니다. 구글이 이 분야에서
[27:12]
완전히 승리했거든요. 제가 화나는
[27:14]
얘기 하나 해도 될까요? 애플은 도대체
[27:15]
어디 있는 걸까요? 전 그저 시리가
[27:17]
기본적인 질문 하나만 제대로 답해주길 바랄 뿐인데요.
[27:20]
애플은 지금 곤경에 처해있습니다. 이런
[27:23]
분야들에 전혀 준비가 되어있지 않았거든요.
[27:25]
애플은 사생활 보호를 중시하는 기업이라
[27:28]
데이터가 전혀 없습니다.
[27:29]
프라이버시가 항상 그들의 초점이었기에
[27:31]
모델을 학습시키는데 필요한
[27:32]
데이터가 존재하지 않죠. 과학적인
[27:35]
측면에서도 역사적으로
[27:36]
투자와 채용이 부족했습니다.
[27:38]
데이터가 없으니까요.
[27:39]
그래서 좋은 추천 시스템
[27:41]
같은 것들이 없는 거죠.
[27:43]
심지어 시리조차도 자체 개발한 게
[27:45]
아닙니다. 내부에
[27:46]
인재가 없어서 인수한 거죠.
[27:48]
그리고 하드웨어 측면에서는
[27:50]
뛰어난 것들이 있음에도 불구하고,
[27:52]
애플의 하드웨어는 전적으로
[27:54]
와트당 성능을 얼마나 끌어올릴 수 있는지에만
[27:56]
초점이 맞춰져 있습니다. 이건
[27:59]
폰과 태블릿, 그리고
[28:01]
제가 지금 사용하고 있는 것 같은
[28:02]
작은 노트북에는 좋지만,
[28:04]
이런 종류의 추론 작업에는
[28:06]
전혀 도움이 안 됩니다. 애플이 얼마나
[28:07]
강력한 데스크톱 컴퓨터를 만드는 게
[28:09]
어려운지 우리는 봤죠. 그저 같은 칩을
[28:12]
더 많이 붙이고 최선을
[28:14]
바랄 뿐입니다. 애플의 하드웨어 부서는
[28:15]
우리가 주머니에 넣고 다니는 기기들을 위해
[28:17]
미친 듯이 혁신하고 있지만,
[28:18]
다른 분야에서는 거의 아무것도
[28:21]
하지 않고 있어요. 로컬 추론이 필요하다면,
[28:24]
맥 미니 여러 대를
[28:25]
묶어서 쓸 수는 있죠. 예상보다는
[28:27]
낫지만, 여전히 Grock이나 Cerebrris,
[28:29]
엔비디아나 구글이 하는 것에 비하면
[28:31]
아무것도 아닙니다. 그들이
[28:33]
투자하는 분야가 아닌 거죠.
[28:35]
동의합니다. 이 시장에서 애플의 위치는 좋지 않고
[28:37]
계획 부족의 결과는 부끄러운 수준입니다.
[28:40]
애플의 하드웨어는 이런 것들을
[28:42]
로컬에서 실행할 만큼
[28:43]
충분히 좋습니다. 그리고
[28:44]
Ollama 같은 회사들을 통해
[28:46]
봤듯이, Ollama는 놀랍도록 간단하게
[28:48]
작은 프로그램만 설치하면
[28:50]
컴퓨터에서 로컬로 모델을 실행할 수 있게 해줍니다.
[28:53]
애플의 하드웨어도 꽤 괜찮은
[28:55]
속도로 이를 처리할 수 있습니다. 하지만
[28:57]
애플은 아직 이 모든 것을
[28:59]
스스로 파악하지 못했죠. 구글에 대해
[29:01]
마지막으로 강조하고 싶은 게 있습니다.
[29:03]
역사적으로 Google Cloud는, 음... 어떻게 표현하지?
[29:07]
시장 흐름을 잘 읽지 못했다고 할까요? GCP는 항상
[29:10]
실제로 세상의 흐름을
[29:12]
제대로 이해하지 못하는 것 같았어요.
[29:14]
우리가 Next로 멋진 서버리스
[29:16]
작업을 하고 있을 때도 그들은
[29:17]
"구글 클라우드 런을 써보세요"라고만 했죠.
[29:19]
시도해봤지만 20개나 되는
[29:22]
망가진 입력 박스와
[29:24]
제대로 작동하지 않는 GitHub
[29:27]
연동으로 결국
[29:29]
배포가 실패했어요. 정말 부끄러운 일이었죠.
[29:31]
하지만 AI 부문에서는
[29:33]
전혀 다른 경험을 했어요. 여러분이 모르실 수도 있는데,
[29:36]
로건은 계속해서 트위터 스페이스에서 활동하면서
[29:38]
새로운 기능이 나올 때마다
[29:41]
주요 발표자로 나서고
[29:43]
새로운 소식을 전달하고
[29:44]
사람들의 질문에 답변하고, DM으로
[29:46]
이 모든 것을 시도하는 사람들과
[29:47]
소통하면서 AI 제품이 제대로 작동하도록
[29:50]
만들었어요. AI 스튜디오는 다른 구글 클라우드 제품보다
[29:52]
훨씬 더 뛰어납니다.
[29:54]
AI 스튜디오에서 다른 구글 클라우드
[29:56]
제품으로 전환할 때 웃긴 상황이 발생하는데
[29:58]
예를 들어 서비스가 얼마나
[30:00]
사용되고 있는지 GCP에서 확인하려면
[30:02]
AI 스튜디오에서는 아직 사용량 데이터를 볼 수 없어서
[30:06]
구글 클라우드로 가야 하고,
[30:07]
그때서야 그들이 이런 문제들을
[30:09]
해결하기 위해 얼마나 노력했는지
[30:11]
알 수 있죠. 이 이야기를 하는 이유는
[30:13]
이번 릴리스에 대한 소통이 정말 좋았기 때문입니다.
[30:15]
이건 구글의 연구 및 딥러닝 부문 VP인
[30:18]
오럴의 공식 발표인데요.
[30:21]
그의 포스트에서는
[30:23]
육각형 데모를 사용했어요.
[30:27]
저는 이게 정말 멋지다고 생각해요.
[30:30]
그들이 이 분야에서 무슨 일이
[30:31]
일어나고 있는지 충분히 인지하고 있다는 점이
[30:32]
진정으로 좋습니다. 트위터와
[30:34]
다른 공간에서 우리와 소통하고
[30:36]
제 영상도 보고
[30:37]
연락도 하면서 전반적인 공간에 참여하고
[30:40]
실제로 우리가 이야기하는 것을 바탕으로
[30:44]
콘텐츠를 생성한다는 걸 보여주고 있어요.
[30:45]
정말 멋지죠. 이런 수준의
[30:48]
인식은 구글에서 본 적이 없었어요.
[30:50]
이전에는 이렇게 이해하는 모습을 본 적이 없죠.
[30:53]
사람들이 실제로 이 분야에서 무엇을 하고 있는지
[30:55]
관심을 기울이는 구글을 보니
[30:57]
좋네요. 우리가 실제로 이 기술을
[30:58]
어떻게 사용하는지 주목하고 있어요.
[31:00]
죄송합니다만 잠깐 중단하겠습니다.
[31:02]
제가 촬영할 때 구글에 대해
[31:03]
너무 호의적이었던 것 같네요. 스트리밍 후에
[31:05]
아, 안녕하세요. 스트리밍 후에
[31:08]
좀 실망스러운 정보를 발견했거든요.
[31:10]
왜 이렇게 하는지 이해는 하지만
[31:12]
다들 그렇게 하니까요.
[31:13]
영상에서 언급하지 않은 걸 명확히 하고 싶어서요.
[31:15]
스튜디오에서 보이는 모델의
[31:16]
사고 능력이
[31:19]
API 출력에서는 제공되지 않습니다.
[31:21]
AI 스튜디오에서 질문을 할 때
[31:24]
안녕 친구야. 죄송해요 방해해서.
[31:27]
챗봇도 감정이 있잖아요.
[31:30]
보시다시피 실행했을 때
[31:33]
바로 응답이 나왔어요. T3 챗이
[31:35]
추론을 할 수 있어야 하는데도요.
[31:37]
이게 의심스러웠죠.
[31:39]
내장되어 있다고 생각했거든요.
[31:40]
여기서 같은 질문을 하면
[31:42]
이런 사고 과정이 나타나요.
[31:45]
이건 답변을 내기 전의
[31:46]
모든 사고 과정이에요.
[31:48]
우리 고양이가 계속 가르랑거리면서 애정표현을 하네요.
[31:50]
죄송합니다. AI 스튜디오를 통해
[31:52]
사용할 때는 이런 모든 사고 과정을
[31:54]
볼 수 있어요. 여기 명확하게 보이죠.
[31:56]
하지만 API를 통해 사용하면
[31:59]
이런 게 전혀 없어요.
[32:01]
그냥 답변만 기다려야 해요.
[32:03]
이건 정말 아쉽죠.
[32:05]
이런 데이터를 API를 통해
[32:07]
제공해주면 정말 좋을 텐데
[32:09]
문서에서 언급했듯이 현재는 불가능합니다.
[32:11]
그래서, 구글 여러분
[32:14]
듣고 계시다면
[32:17]
이 문제를 해결해주세요. 다시 말하지만
[32:20]
2.5 Pro는 정말 놀라운 모델입니다.
[32:23]
구글이 정말 열심히 노력했고
[32:24]
매우 좋은 위치에 있어서
[32:26]
지금 그들의 경쟁자가 되고 싶지 않네요.
[32:28]
T3 Chat이 사실상 그들의
[32:30]
경쟁자임에도 불구하고 하는 말입니다.
[32:32]
여러분은 어떻게 생각하시나요? 이 모델이 마음에 드나요?
[32:34]
싫으신가요? 제가 구글이 잘 자리잡았다고
[32:35]
생각하는 게 미친 소리처럼 들리나요?
[32:36]
아니면 그들이 승리할 거라 생각하시나요?
[32:38]
댓글로 알려주세요. 다음 시간까지
[32:40]
T3 Chat 구독 부탁드립니다.
[32:41]
어떻게든 비용은 내야 하니까요.
[32:43]
여러분의 도움이 필요합니다.