구글 승리. (Gemini 2.5 Pro가 미쳤다)

채널 아이콘
Theo - t3․gg 구독자 439,000명

요약

영상은 구글이 AI 경쟁에서 압도적인 우위를 점하고 있음을 보여주며, Gemini 2.5 Pro 모델의 뛰어난 성능, 빠른 응답 속도, 그리고 비용 효율성을 강조합니다. 스폰서인 Augment Code를 통한 대규모 코드베이스 분석 시연으로 실제 개발 환경에서의 유용성을 증명합니다. 또한, 구글의 데이터, 하드웨어, 과학적 연구의 통합 전략이 경쟁사 대비 우위의 근거임을 설명하며, API 기능 차이와 향후 개선 방향에 대한 의견도 제시됩니다.

주요 키워드

Google Gemini AI 성능 벤치마크 코드 하드웨어 데이터 Augment Code 가격 경쟁력

하이라이트

  • 🔑 구글이 AI 경주에서 주도권을 잡으며 Gemini 2.5 Pro를 통해 혁신적인 성능을 선보임.
  • ⚡️ Gemini 2.5 Pro는 빠른 응답 속도와 높은 벤치마크 성능을 기반으로 경쟁 모델들을 압도함.
  • 🌟 스폰서 Augment Code의 데모를 통해 대규모 코드베이스 파싱 및 HTML에서의 데이터 추출 기능이 실제 사례로 제시됨.
  • 🚀 가격 경쟁력과 맞춤형 하드웨어, 뛰어난 데이터 및 연구 역량이 구글의 독보적 위치를 뒷받침함.
  • 📌 API를 통한 기능 노출의 한계와 개선 요청 등 세부적인 기술 이슈도 함께 논의됨.

용어 설명

Gemini 2.5 Pro

구글의 최신 AI 모델 업그레이드 버전으로, 빠른 처리속도와 높은 비용 효율성을 지니며 복잡한 문제 해결에 초점을 맞춤.

Augment Code

대규모 코드베이스를 분석하고 파싱할 수 있도록 지원하는 도구로, 영상에서는 스폰서 사례로 소개됨.

Thinking 모델

복잡한 문제에 대해 자체적으로 추론 과정을 포함하여 답변을 생성하는 AI 모델의 분류를 의미함.

하드웨어-소프트웨어 통합

데이터, 하드웨어, 그리고 과학적 연구를 결합해 AI 모델의 성능을 극대화하는 구글의 전략을 설명하는 용어임.

Zero Storage

Gemini 모델의 기능 중 하나로, 복잡한 코드 스토리지 시스템을 관리하고 최적화하는 추가 레이어를 의미함.

[00:00:00] 소개 및 Gemini 2.5 Pro 발표

영상은 구글이 AI 경쟁에서 압도적인 우위를 보이며, 새로운 Gemini 2.5 Pro 모델의 혁신적 성능과 빠른 응답을 소개합니다.

구글이 AI 경쟁에서 선두를 달리고 있으며, Gemini 2.0의 뛰어난 성능과 저렴한 비용으로 T3 Chat의 기본 모델로 채택되었다고 설명합니다.
새로 출시된 Gemini 2.5 Pro가 응답 속도, 성능, 벤치마크 등 모든 면에서 시장의 다른 모델들을 압도하고 있다고 소개합니다.
[00:00:41] Augment Code와 코드베이스 분석

스폰서 Augment Code를 통해 대규모 코드베이스 분석 및 HTML 파싱 시연이 이루어지며, 실제 개발 환경에서의 도구 활용법을 보여줍니다.

Augment Code를 소개하며, 대규모 코드베이스를 분석하는데 특화된 기능을 설명합니다.
Rocky Corp 모노레포의 예시를 들어 replicache와 zero sync 엔진의 코드베이스 분석 경험을 공유합니다.
VS Code에서 20만 줄의 코드를 빠르게 인덱싱하고 실시간으로 질문하고 답변받는 과정을 시연합니다.
대규모 코드베이스 적응과 비즈니스 아키텍처 이해를 돕는 Augment 회사 소개
[00:02:32] Gemini 2.5 Pro 성능 및 벤치마크

모델의 빠른 처리 속도, 뛰어난 벤치마크 성능, 수학 및 코드 문제 해결 능력이 경쟁 모델과 비교되며 상세히 분석됩니다.

Gemini 2.5 Pro 실험 버전이 출시되어 LM Arena에서 GPT4.5와 DeepSeek을 제치고 1위 차지
Gemini의 유료 티어 출시 예정과 T3 Chat에서의 활용 가능성 논의
T3 Chat 구독 서비스 소개와 50% 할인 프로모션 안내
Gro API 출시 지연에 대한 불만과 구글의 모델 개선 노력 설명
구글이 모든 모델에 사고 능력을 직접 구축하여 더 복잡한 프롬프트와 맥락 인식 에이전트를 지원할 계획을 발표했습니다.
이전 구글 모델의 사고 기능은 단순히 덧붙여진 기능이었지만, 이제는 모델에 완전히 통합되어 다른 모델에도 적용 가능한 내장 기능이 되었습니다.
Gemini가 OpenAI의 humanity last 시험에서 GPT-3.5를 압도했으며, 특히 수학 분야에서 우수한 성능을 보여주었습니다.
하지만 코딩 분야에서는 아직 최고가 아니며, 사고형 모델들은 에디터에서 사용하기에 최적화되지 않았습니다.
[00:06:00] 추가 데모와 기능 시연

생각 모델을 활용한 HTML 파싱, 코드 생성 등의 실시간 데모가 진행되며, Gemini 2.5 Pro의 다양한 기능들이 시연됩니다.

사고형 모델의 주요 문제점은 자체 사고 과정에서 잘못된 결론을 내리거나 의도하지 않은 행동을 할 수 있다는 것입니다.
실제 테스트에서 Gemini는 처음에는 잘 작동하다가 특정 지점에서 문제가 발생하는 한계를 보여주었습니다.
AI 모델의 육각형 안의 공 시뮬레이션 테스트에서 모서리에서 공이 떨어지는 문제가 발생함
Deepseek의 V3 모델 업데이트가 이 프롬프트에 대해 좋은 성능을 보여줌. 공이 떨어질 것 같다가도 다시 튕겨져 돌아오는 개선된 기능 구현
Flavio가 개발한 '육각형 안의 공' 벤치마크는 AI 모델의 코딩 능력을 직관적으로 평가하는 좋은 지표로 활용됨
Gemini는 일부 한계에도 불구하고 그라운딩, 이미지 파싱, 이미지 편집 등 다양한 기능을 갖춘 우수한 범용 모델
Gemini의 가장 주목할만한 특징은 100만 토큰의 입력 컨텍스트 윈도우로, 기존 모델들의 10-20만 토큰 제한을 크게 뛰어넘음
실제 사례로 Build Different 음악 블로그의 임베디드 콘텐츠를 스크립트로 추출하는 작업을 시도
[00:12:00] Google의 기술 우위 요인

구글이 데이터, 하드웨어, 과학적 연구를 결합하여 AI 모델 성능을 극대화하는 전략과 그에 따른 기술적 우위가 설명됩니다.

타임라인 정보가 없습니다.

[00:20:00] 가격 경쟁력과 API 기능 비교

가격 경쟁력, API 사용상의 한계, 클라우드 플랫폼 연동 및 서비스 차별성이 언급되며, 구글 모델의 실용성이 부각됩니다.

타임라인 정보가 없습니다.

[00:29:00] 최종 의견 및 미래 전망

API 개선 요구, 시장 내 경쟁 구도, 그리고 구글 AI의 미래 가능성이 정리되며, 최종 의견과 함께 시청자와의 소통을 유도합니다.

타임라인 정보가 없습니다.

점점 더 구글이
AI 경쟁의 최종 승자가 될 것 같습니다.
얼마 전 Gemini 2.0이 출시되었을 때도 다뤘었는데,
그 이후로 이 모델에 완전히 매료되었습니다.
성능이 너무 뛰어나고 비용도 저렴해서
실제로 T3 Chat의 기본 모델로
채택하게 되었죠.
그리고 그 결정이 정말 만족스럽습니다.
성능도 훌륭하고 답변의 품질도 뛰어나고,
속도까지, 모든 면에서 완벽합니다.
그들은 정말로 혁신적인
일을 해내고 있죠. 하지만 오늘은
Gemini 2.0 얘기가 아닙니다. 구글이
새로운 모델을 출시했는데, 저는
완전히 충격을 받았거든요. Gemini 2.5 Pro가 출시되었고
제가 보고 있는 모든 것이
정말 대단합니다. 응답 속도부터
성능, 벤치마크 결과,
그리고 현재 시장에 있는
다른 모든 것들을 압도하는
수준입니다. 이 모델에는 정말
흥미로운 요소들이 많아서
여러분께 꼭 알려드리고 싶습니다.
하지만 먼저 스폰서 광고를
잠깐 보고 오겠습니다.
바로 시작하겠습니다.
오늘의 스폰서는 Augment Code입니다.
웹사이트에 있는 내용을
그대로 전달하기보다는
제가 직접 경험한 예시를
들려드리고 싶습니다.
Augment는 대규모 코드베이스에 특히 강점이 있는데,
이는 대규모 코드베이스를
이해하려고 할 때 정말 유용합니다.
제가 이해하고 싶었던 예시가 있는데,
바로 Rocky Corp 모노레포입니다.
이 모노레포에는 여러 패키지를 위한
엄청난 양의 코드가 있는데,
replicache의 전체 코드와
포스트그레스 기반의 zero sync 엔진
전체 코드가 포함되어 있습니다.
이 엔진들이 매우 안정적이라는 걸 알고
T3 chat에서 활용하기 위해 더 자세히
이해하고 싶었습니다. 안타깝게도
이것은 TypeScript 부분만 해도 약 20만 줄에 달하는
거대한 코드베이스입니다. 이걸
빠르게 분석하기는
어렵죠. 그래서 VS Code를 열고
레포를 클론한 뒤 인덱싱을 했는데,
놀랍게도 매우 빠르게 처리되었고,
이제 이 코드베이스에 대해
질문을 할 수 있게 되었습니다.
얼마나 빠른지 보여드릴까요?
실시간으로 보여드리겠습니다.
'zero의 클라이언트 측에서
데이터를 로컬에 저장하는 코드가 어디 있나요?'라고 물었죠.
다시 한 번 물어보면, 이건
실시간입니다. 놀라울 정도로 빠르게
응답이 시작되고, 이 거대한 코드베이스의
모든 맥락을 파악하여 각각의
요소들을 찾아내고 질문에 답변합니다.
이것이 replicash 저장소와
어떻게 다른가요?
Zero 저장소는 사실 replicash 저장소
시스템 위에 구축되었지만
주요 차이점과 추가 계층이 있습니다.
주요 차이점을 설명해드리겠습니다.
이런 거대한 코드베이스를
분석할 때 얼마나 유용한지
아시나요? 참고로
T3 chat 코드베이스는 17,000줄입니다.
즉, 이건 10배나 더 큰 코드베이스인데도
거의 즉각적으로 질문에 답변할 수 있습니다.
1초도 안 되어서 답변이 시작되죠.
답변을 받기 시작합니다.
답변을 시작하죠. 대규모 코드베이스에
적응하려 하거나 팀이 비즈니스의
전반적인 아키텍처를 더 잘 이해하도록
돕고 싶을 때, Augment는 바로 그런
사용 사례를 위한 AI 도구를 만드는 회사입니다.
거대한 코드베이스에 도움이 필요하다면,
오늘 soyv.link/ugmentcode에서 무료로 사용해보세요.
자, Gemini 2.5는 어떤가요?
2.5는 점점 더 복잡한 문제를 해결하도록 설계된 사고 모델입니다.
우리의 첫 번째 2.5 모델인
2.5 Pro 실험 버전은 일반적인
벤치마크에서 의미 있는 차이로 앞서고 있으며,
뛰어난 추론 능력과
코드 작성 능력을 보여줍니다.
이것은 출시되자마자
LM Arena에서 선두를 차지한
모델 중 하나라는 점이 꽤 인상적입니다.
와우, Gemini가 출시되자마자 바로
1위를 차지했네요.
GPT4.5와 DeepSeek, 그리고 다른
우수하다고 알려진 모델들을
모두 제쳤습니다. 가격도
훨씬 저렴할 것 같네요.
아직 가격은 공개되지 않았지만,
이전 프로 모델들과 달리
곧 유료 티어로
제공될 것이라고 확인했는데, 이는 아주 중요합니다.
왜냐하면 지금까지는
무료 모델을 T3 Chat과 같은 곳에
추가하는 것을 걱정했었거든요.
그러면 사용량 제한이
더 엄격하게 적용될 것이기
때문이죠. 돈을 내지 않으면
제공하는 서비스를 유지할
이유가 없지만, 돈을 지불하면
아마 계속 유지할
것입니다. 그래서 매우 기대가 됩니다.
그렇다고 해서 우리가
T3 Chat에 새 모델을 추가하는 것을
멈추지는 않았습니다. 실제로
구글의 담당자들과 연락해서
Gemini를 일찍 추가할 수 있었고
사용량 제한도 충분히 높아서
T3 Chat에서 사용하는 데
문제가 없을 거라고 확신합니다.
T3 Chat 프로 구독자라면
월 8달러밖에 안 하죠.
우리가 합리적으로 추가할 수 있는
최신 모델들을 모두
이용할 수 있습니다. 아직 구독하지 않았다면,
더 쉽게 시작할 수 있게 해드릴게요.
첫 달 50% 할인
쿠폰 코드가 있습니다. 단 4달러로
모든 모델에서 1,500개의 메시지를
보낼 수 있죠. 제가 보기에는 정말 대단한 거래예요.
하지만 빨리 사용하셔야 해요.
왜냐하면 이 쿠폰은
선착순 200명에게만
제공되거든요. 제가 볼 때
현재 우리에게 없는 유일한 멋진 모델은 Gro에요.
2개월 전부터 API를 약속했는데도
아직도 Gro 3 API를
출시하지 않았거든요. 말도 안 되죠.
XAI 팀이 거짓말을 하고 있는 거예요.
정말 지쳤습니다. 어쨌든,
구글은 모델을 개선하기 위해
다양한 기술에 많은 시간을
투자해왔습니다. 우리가 전에
여러 번 이야기했던 흥미로운 것들이죠.
2.5는 이 모든 것들이 하나로
통합된 결과입니다. 크게 향상된
기본 모델과 개선된 사후
학습을 결합했죠. 앞으로도
이러한 사고 능력을 모든 모델에
직접 구축하고 있어서
더 복잡한 프롬프트를 처리하고
더 강력한 맥락 인식 에이전트를 지원할 수 있습니다.
지금까지 구글 이전 모델들의
사고 기능은 마치 덧붙여진 것처럼
'이것에 대해 생각해봐'라고 하면
실제 답변을 재프롬프트하는 방식이었죠.
하지만 이제는 모델에 제대로 내장된
기능이면서도 다른 모델에도
적용할 수 있게 되었습니다.
저는 이것이 어떻게 구현될지
정말 기대가 됩니다.
기술적인 이야기는 여기까지하고,
이 벤치마크 결과들을 보시죠.
OpenAI GPT-3.5의 humanity last 시험에서 압도적인 성과를 보였는데,
이는 정말 대단한 성과입니다.
특히나 이 시험이
OpenAI가 LLM의 더 나은 벤치마크를 찾기 위해
만든 것이라는 점을 고려하면, 구글이
OpenAI의 자체 벤치마크에서 이긴 것은
정말 놀랍습니다. 특히 GPT-3.5가
얼마나 좋은지를 생각하면 더욱 그렇죠.
저는 한동안 이 모델을 가장 좋아했는데,
이제 Gemini가 더 나은 것을 내놓으면서
제 선호도가 바뀔지 궁금하네요. 수학에서도
특히 뛰어난 성능을 보여주는데,
다른 모델들과 수학 성능이
좀 불안정했던 것에 비하면 정말 좋습니다.
보시다시피 GPT-4.5는 수학을 잘 못하고, Claude 3.7은 그런대로
괜찮은데, 특히 재미있는 점은
이전 Gemini Flash의 수학 응답이
얼마나 좋지 않았는지를 생각하면
더욱 그렇죠. 이렇게 수학 성능이
향상된 걸 보니 기쁩니다. 하지만
코딩에서는 아직 최고는 아닙니다.
Claude의 대안을 찾고 계신
분들을 위해 말씀드리자면, 사고형 모델들은
아직 에디터에서 사용하기에
좋은 경험을 제공하지 못합니다.
저는 여러 번 Cursor와 다양한 사고형
모델들을 사용해봤는데,
즉각적인 응답을 받는 것만큼
좋지는 않았습니다. 물론
앞으로는 해결될 것 같은데,
특히 병렬 다중 에이전트
시스템이 도입되면 더욱 그럴 것 같지만,
지금은 최적의 경험은 아닙니다.
결과도 그리 좋지 않아 보이고요.
코딩에서 사고형 모델의 또 다른 문제는
자체적인 사고 과정에서
스스로를 현혹시키면서
의도하지 않은 일을 한다는 겁니다.
예를 들어 공 프롬프트에서
사고형 모델들이
중력이 반대 방향으로 작용해야 한다고
스스로를 설득해서 공을 위로 보내버리더라구요.
문제는 모델이 더 많은 맥락을 만들어내면서
사용자로부터 오는 맥락이
줄어들게 되고,
그만큼 오류가 발생할 여지가
더 많아진다는 거죠. 환각이 발생할
공간이 더 많아지니까요.
제가 진행한 테스트 결과를
빠르게 보여드리고 싶은데요.
제 Cursor를 열어보면,
여러 모델들이 각각 다른 버전의
테스트를 생성한 것을 볼 수 있습니다.
여기서 Gemini 버전을 실행하면
꽤 잘 작동하다가 갑자기
멈춰버리는 걸 보실 수 있어요.
잘 될 것 같았는데 그러지 못해서 너무 아쉽더라구요.
정말 잘 작동하는 것 같다가
모서리를 만나면 그냥 멈춰버립니다.
모서리에서 올바른 각도로 돌다가
그냥 떨어져 버립니다.
참고로 곧 새로운 영상이 나올 예정인데,
Deepseek이 방금 V3 모델의
업데이트 버전을 출시했어요.
이 프롬프트에 대해 지금까지 본 것 중
가장 좋은 응답 중 하나를 보여줬죠.
정말 잘 작동합니다. 애니메이션이
매우 부드럽진 않지만,
공이 구르다가 떨어질 것 같은
문제가 있어도 다시
튕겨져 돌아옵니다. 훨씬 더 잘 작동하고 있죠.
다른 사람들도 같은 프롬프트와
더 복잡한 버전으로
다양한 모델들을 테스트해봤어요.
여기 Flavio가 바로 이 육각형 안의
공 컨셉의 창시자인데요.
단순해 보일 수 있지만,
모델의 코딩 능력을 직관적으로 평가하는
좋은 벤치마크라고 생각합니다.
물론 이게 전부는 아니에요.
실제 에디터에서의 경험과는
다를 수 있지만,
우리가 많이 배울 수 있는
재미있는 벤치마크예요.
방금 보셨듯이 Gemini 버전도 여전히
육각형에서 공이
떨어지긴 하지만, 전반적으로는 좋아요.
범용 모델로서는 정말 훌륭하죠,
특히 구글이 제공하는
모든 기능을 고려하면 더욱 그렇습니다.
구글 모델들은 몇 가지
정말 좋은 특징들이 있어요.
먼저 그라운딩 기능이 있죠.
그라운딩은 검색을 위한
그들만의 코드워드입니다. 이미지 파싱도 있는데,
이것도 정말 유용하죠.
최근에는 이미지 편집 기능도 추가됐고요.
하지만 가장 과소평가된 기능 중 하나는
100만 토큰의 입력 컨텍스트 윈도우예요.
이건 정말 대단한 거예요.
100만 개의 입력 토큰을
처리할 수 있다는 게 믿기지 않죠.
각 토큰이 4-6자 정도라는 걸
생각하면 엄청난 양이에요.
다른 주요 모델들이 지원하는
최대치가 10-20만 정도인데,
100만이면 기존에는
불가능했던 일들을 할 수 있죠.
최근에 제가 실제로 해본
예시가 있는데,
너무 놀라워서 함께 보여드리려고 해요.
이건 'Build Different' 블로그예요.
제가 좋아하는 음악 블로그인데,
업데이트가 자주 되지 않아요.
별로 좋지 않은 Blogspot 웹사이트라
YouTube와 SoundCloud 영상들이
사이트에 직접 임베드되어 있고
둘러보기도 힘들고
모바일에서는 거의 사용할 수 없어요.
이걸 플레이리스트로 만들고 싶었죠.
그래서 일반적인 엔지니어라면
하게 될 일을 했어요.
소스를 가져와서 Gemini에게
이렇게 말했어요. "YouTube와 SoundCloud
링크가 있는 iframe 임베드가 포함된 HTML을 줄 텐데,
콘솔에 붙여넣을 수 있는
자바스크립트 스크립트를 작성해서
모든 링크를 가져와줘."
지시사항을 주고
이 엄청난 양의 HTML을 붙여넣었어요.
코드 블록으로 감싸진 않았는데,
너무 방대해서 파싱이
깨질 수 있거든요. 정말
엄청나게 큰 양이에요.
동기화가 깨질 정도로 너무 방대한 양이에요.
포맷팅을 인식할 수 있길 바라면서 테스트로 해봤어요.
여기서는 실행할 수 있는 자바스크립트 코드를 제공해주네요.
이전에 제가 놀랐던 결과를
보여드리겠습니다.
이번에는 그렇게 하지 않았지만,
정말 놀라웠던 걸 보여드릴게요.
예상 출력이 어떻게 되는지
보시면,
여기서 모든 링크를 정확하게 추출했어요.
처음에는
아무런 프롬프트 없이도 이걸 해냈는데 믿기지가 않았어요.
그래서 직접 스크립트를 가져와서 실행해보고
정확히 작동하는지 확인했죠.
여기 제가 처음 시도했을 때의 채팅 기록이 있어요.
보시다시피 HTML이 동기화 문제로 깨져있지만,
스크롤을 내려보면 터미널이나
콘솔에서 실행할 수 있는 코드를 제공했고,
그 방대한 HTML에서
모든 링크를 정확하게
추출해냈어요. 정말
놀라웠죠. AI 모델이 이런 걸
해낼 거라고는 전혀 예상하지 못했거든요.
그래서 본능적으로
이걸 실행할 코드를 요청했던 거예요.
이렇게 복잡한 작업을
제대로 처리할 거라고 기대하지 않았기 때문이죠.
하지만 이런 종류의 작업을
스스로 파악하고 처리한다는 게 정말 대단해요.
저는 한동안 기본 모델로
Flash를 사용해왔는데,
이건 정말 놀라운 리소스가 되어주고 있어요.
새로운 모델을 활용해서
한번 시도해볼까요?
새로운 thinking 모델이
얼마나 잘 작동하는지 궁금하네요.
2.5 Pro로 HTML을 다시 가져와볼게요.
오, HTML도 없는데 벌써 코드를 작성했네요.
여기 HTML이 있는데,
출력이 어떻게 되어야 하는지 보여주세요.
참고로 이건 정말 엄청난 양의 정보예요.
71,000 토큰,
222,000자나 되는
어마어마한 양이에요.
이론적으로는 다른 컨텍스트 윈도우에도
들어갈 수 있는 크기지만,
확실히 처리하는 데 시간이 좀 걸리네요.
채팅에 따르면 이미지 추출도
잘 한다고 하네요.
Christian이 맥락을 설명해줬네요.
전혀 놀랍지 않아요.
그리고 이것 말고도
구글이 제공하는 다른 기능들도
매번 기본으로 선택하게 만드는 요인이에요.
PDF 지원이 기본으로 되어있고
할 수 있는 작업들이 정말 대단해요.
엄청난 양의 페이지를 처리할 수 있고
PDF에서 이미지, 그래프, 차트도
분석할 수 있어요. 다른 AI 모델의
이미지 파서들은 이 정도 수준의
기능을 제공하지 못해요.
여기 결과가 나왔네요.
61개의 iframe을 찾았고,
소스를 확인해보니
전부 정확하게 추출됐어요.
총 61개의 iframe 중 60개가
YouTube나 Soundcloud를 포함한
소스 속성을 가지고 있네요.
정말 좋아요. 앞으로 자주 사용하게 될 것 같아요.
구글은 고급 코딩 기능에
집중했다고 하는데,
다른 모델들만큼 좋지는 않더라도
발전 속도가 정말 놀랍네요.
지금까지 Gemini로 코딩할 때는
특히 Flash 버전에서는
50/50 정도의 성공률을 보였는데,
이번엔 정말 희망적인 결과를 보여줬어요.
커스텀 에이전트 설정이 큰 도움이 된다고 하더군요.
그들이 Five Vibe 코딩 게임 예제를 보여줬나요?
정말 봐야겠네요.
아, 소리가 없네요.
원샷 생성치고는 나쁘지 않네요.
그들이 제로샷 생성이라고 부르는 것을
자랑하는 게 재미있어요.
최소한의 노력으로 모든 것을 파악하는
능력이 정말 뛰어난 것 같아요.
또 다른 흥미로운 점은
제가 정말 기대하는 건
곧 200만 토큰의
컨텍스트 윈도우가 나온다는 거예요.
정말 엄청난 일이죠. 대부분의
코드베이스를 처리하기에 충분할 거예요.
우리 코드베이스를 토큰으로 변환해보니
일부는 10만 토큰도 안 되고
대부분이 200만 토큰 이내더군요.
RA나 다른 조회 도구 없이도
전체 코드베이스에 대한 컨텍스트를
모델이 가질 수 있다고 생각해보세요.
정말 인상적인 발전이에요.
그럼 구글이 왜 이렇게 앞서 있을까요?
어떻게 이렇게 빠르고
저렴하게 좋은 모델을 만들 수 있을까요?
모델의 성능을 결정하는
몇 가지 핵심 요소가 있습니다.
이것들을 하나씩 살펴보면서
구글이 왜 이렇게 유리한 위치에 있는지
설명해드리겠습니다. 좋은 모델을
만들고 운영하기 위해서는
몇 가지 핵심 요소가 필요합니다.
데이터, 하드웨어, 그리고
과학이 바로 그것입니다.
이 세 가지가 AI 모델의
성능을 결정하는 요소죠.
다양한 데이터 소스와
데이터의 품질, 필터링,
분류 등 모든 것이
AI 모델의 성공에 필수적입니다.
AI 모델이 주어진 데이터보다
더 똑똑해지는 것은 불가능하죠.
그래서 많은 데이터가 필요합니다.
어떻게 될지 짐작되시나요?
다음은 과학입니다. 이 모든 것을
가능하게 하는 기술과 테크닉을
아는 실제 전문가들이죠.
LLM 배후의 과학은 단순하면서도
기초적이지만, 동시에 매우 복잡하고
이해하기 어렵습니다.
수십 년간 연구된 분야이고,
구글은 이 분야의
선두주자였습니다.
구글 번역이 실제로
이전 입력을 기반으로 다음 단어를
예측하는 최초의 LLM 사례 중
하나라고 볼 수 있죠.
구글은 이런 과학과 머신러닝 분야에서
깊은 역사를 가지고 있어
큰 이점을 가지고 있습니다.
그리고 하드웨어가 있습니다.
지금까지는 NVIDIA GPU와
CUDA에 의존해 모델 학습과
생성, 그리고 추론을 해왔죠.
이런 GPU들이 좋기 때문입니다.
많은 칩이 탑재되어 있어 빠른 속도를 냅니다.
고성능 GPU에 있는
엄청난 수의 연산 유닛으로
거대한 양의 데이터에 대해
대규모 변환이 가능합니다.
하지만 NVIDIA가 최고는 아닙니다.
제가 여러 번 언급했던
회사가 있는데,
여러분도 들어보셨을 겁니다.
Rock을 소개해드리고 싶은데요. 이 회사는
추론을 위한 더 나은 칩을 만들려고 하는
소수의 기업들 중 하나입니다.
다음 단어를 예측하기 위해 방대한 단어 맵을
분석하는 작업은 매우 도전적인 과제입니다.
그리고 이런 도전적인 과제에서
GPU가 놀랍게도
CPU와 비교했을 때
매우 뛰어난 성능을 보여줍니다. 하지만 이론적으로
더 나은 성능의 칩을 만들 수 있습니다.
Web3와 암호화폐 채굴의 혼란기를
겪어보신 분들이라면,
ASIC 혁명을 기억하실 것입니다.
초기에는 암호화폐를 채굴할 때
GPU를 사용했습니다.
채굴이란 다음 거래 세트를 검증하기 위해
블록을 해제하는 복잡한 수학 문제를
푸는 것이었고,
많은 사람들이 경쟁하면서
그 블록의 코드를 해독하여
비트코인 보상을 받으려 했죠.
이 작업은 GPU에서 수행되었는데,
이런 종류의 수학적 계산을
잘 처리했기 때문입니다. 하지만 암호화폐가
충분히 가치있게 되자,
몇몇 회사들이 이러한 특정 계산만을
더 잘 수행하는 전용 카드와 칩을
개발하기 시작했습니다. 만약
수학 문제의 정확한 형태를 알고 있다면,
그에 맞춰 칩을 설계하여
더 나은 성능을 얻을 수 있습니다. 그리고 이것이
Grock과 같은 회사들이 하는 일입니다.
Grock의 추론 속도가
믿을 수 없이 빠른 이유는 전용 칩을
사용하기 때문입니다. 참고로,
Q로 끝나는 Grock은
K로 끝나는 XAI Grock과는 전혀
다른 회사입니다. Q로 끝나는 Grock은 칩 제조와
자체 개발하지 않은 모델의
호스팅을 제공합니다. 우리도 실제로
T3 채팅에서 많이 사용하고 있죠.
얼마나 빠른지 직접 보여드리겠습니다.
DeepS R1 Llama 디스틸드 모델로
가서 Advent of Code 2021의 5일차 문제를
파이썬으로 풀어보겠습니다.
이 속도가 보이시나요? 생각하는 속도가
너무 빨라서 스크롤로 따라가기도
힘들 정도입니다.
닫으면 답이 나오는 속도가
얼마나 빠른지 보실 수 있을 겁니다.
정말
말도 안 되게 빠르죠. 속도를
따라잡을 수도 없습니다.
이건 그들의 칩이 이런 종류의
작업에 매우 최적화되어
있기 때문입니다. 하지만 유연성은 떨어져서
칩에 내장된 이러한
제약 때문에 실행할 수 없는
모델들이 많습니다. 하지만
실행 가능한 모델도 많죠.
표준 DeepSec R1은 실행할 수 없지만,
Llama 디스틸드 버전은 실행할 수 있습니다.
Llama와 Qwen과 유사한 모델을 위해
설계되었기 때문이죠. Qwen과
Llama는 잘 처리합니다. R1 자체는
잘 처리하지 못하지만, Qwen이나 Llama로
디스틸된 R1은 훌륭하게 처리합니다.
자체 하드웨어를 가진다는 것이
얼마나 큰 이점인지 강조하자면,
Gemini가 다른 모델들보다
얼마나 빠른지 보세요. 정말 말도 안 되죠.
Gemini Flash는 너무나 빨라서
기본 모델로 사용하지 않는 것이
무책임할 정도입니다.
기존의 칩을 사용하는 다른 어떤 모델보다
이 정도 수준에 근접한 기업들은
Grock처럼 오래된 모델을
전용 하드웨어에서 빠르게 실행하는
기업들 뿐입니다. 혁신적인 모델과
혁신적인 속도를 동시에 가진 것은
현재 구글만의 독점적인 특징입니다.
이 지능과 속도 그래프를 보면
녹색 영역에 있는 것은 2.0 Flash
밖에 없습니다. 다른 모든 모델들은
현저히 느리거나 성능이 떨어지기
때문입니다. 제가 2.0 Flash를
강력히 추천하는 데는 이유가 있습니다.
정말 뛰어난 모델이고, 우리에게
훌륭한 성과를 보여줬죠. 이 멋진
차트와 데이터를 제공해 준
Artificial Analysis에게 감사드립니다.
이들 덕분에 이런 내용을 설명하는 게
훨씬 쉬워졌죠. 비용 차트도 빠르게
보여드리고 싶은데, 01 모델이 이
차트를 얼마나 왜곡시키는지가 재밌습니다.
01을 제외하기 전까지는 이 차트가
의미가 없을 정도로 너무 한쪽으로 치우쳐
있거든요. Gemini Flash는 여기서
Nova Micro와 Llama 31만큼
왼쪽에 위치해 있습니다. Nova Micro를
들어보셨다면 아시겠지만, 성능이
좋지 않은 모델임에도 40 Mini보다
더 저렴하면서도 더 똑똑합니다.
새로운 Gemini 모델이 포함된
업데이트된 차트가 기대됩니다. 하지만
지금 봐도 이 지능 대비 가격의
엄청난 효율성이 보이죠. 여기에
속도 차트까지 고려하면,
왜 다른 모델을 기본으로 선택할
이유가 있을까요? 저는 이제
T3 채팅에서 Gemini의 추적 방식을
변경하려고 합니다. 즉, 1500개
메시지 제한에 포함시키지 않으려고요.
너무 저렴하고 빠르기 때문에
사람들이 제한에 대해 걱정할
필요가 없기 때문입니다. 그럼 다른
회사 얘기를 왜 하는 걸까요?
그것은 구글이 자체 칩도
개발하고 있기 때문입니다. 구글은
자체 하드웨어도 개발하는 유일한 대형
AI 기업입니다. OpenAI는 그렇지 않고
그럴만한 인력이나 경험도 없죠.
당연히 Anthropic도 마찬가지입니다.
Grock같은 몇몇 다른 기업들이
하드웨어 분야에서 잘하고 있죠.
예시를 몇 가지 들어보겠습니다.
Grock, Cerebrus, Samba,
Nova가 있는데, 이들은 모두
하드웨어에만 집중하는 기업들입니다.
데이터 쪽으로 가면, Data Curve,
Scale AI 같은 기업들이 있는데,
이들은 데이터 수집에만 집중합니다.
다른 많은 기업들도 있지만
오직 데이터 수집만 하면서
모델을 학습시키는 기업들이
필요한 데이터를 쉽게 얻을 수
있도록 도와줍니다. 그리고 과학
분야에서는 당연히 OpenAI,
Deepseek, Anthropic 같은 기업들이
있죠. 역사적으로 이 분야의 기업들은
이 중 한 부분에만 집중해서
그것을 레버리지로 활용했습니다.
OpenAI, Deepseek, Anthropic은
과학에 올인해서 혁신적인 모델을
만들고 있죠. Data Curve와
Scale AI는 이 기업들이 필요로 하는
데이터를 수집하고 있고
이들과 계약을 맺고 있습니다.
필요한 데이터를 얻거나
트레이닝을 하고 있죠. 그리고 하드웨어 측면에서는
Groyer와 Samanova 모두
이러한 모델들을 실행하기 위한
최고의 하드웨어를 만드는 데 집중하고 있습니다.
여기서 한 회사를 더 추가해야 합니다.
이 모든 것의 기반이 되는 회사죠.
구글은 이 중 두 가지를 의미 있게 해낸
유일한 회사입니다. 세 가지는 말할 것도 없고요.
이는 구글을 매우 유리한 위치에 놓이게 했습니다.
수십 년간 인터넷을 운영하면서 얻은
무한한 데이터를 보유하고 있기 때문입니다.
또한 세계 최고의 과학자들이
놀라운 기술을 개발하고 있으며,
이 과학자들은 하드웨어 팀과
협력하여 모델이 맞춤형 하드웨어에서
최적의 성능을 발휘할 수 있도록
개발을 진행하고 있습니다.
이러한 과학 분야와 하드웨어 분야 간의
긴밀한 관계는 독보적입니다.
특히 모델 학습에 필요한
데이터까지 보유하고 있다는 점에서
다른 어떤 회사도 따라올 수 없죠.
처음부터 모델을 학습시키는 데 사용할 수 있는
데이터를 가지고 있으니까요.
이런 수준의 시너지와
결합을 보여주는 유일한 회사는
애플입니다. 물론 애플은 AI 분야에서는
앞서가지 못하고 있죠.
Apple Intelligence를 보면 알 수 있듯이요.
하지만 애플은 하드웨어와 소프트웨어를
통합적으로 관리하는 몇 안 되는 회사 중 하나입니다.
자사의 소프트웨어가 어떤 기기에서
실행될지 알고 있기 때문에
마이크로소프트와 같은 회사가
할 수 없는 가정들을 할 수 있죠.
구글도 같은 방식을 따르고 있습니다.
구글은 자사의 모델을 오픈소스로
공개하지 않기 때문에, NVIDIA GPU가 아닌
자체 칩에서만 실행된다고
가정할 수 있습니다. 이러한 가정은
다른 누구도 할 수 없는 많은 것들을
가능하게 만듭니다.
다른 모든 회사들은 이런 업체들과
파트너십을 맺어야 합니다. NVIDIA도 포함해서요.
모든 회사가 이런 칩 제조업체들과
협력해야 하지만, 구글은 그럴 필요가 없습니다.
다른 과학 그룹들은 데이터를 구매해야 하지만
구글은 그럴 필요가 없죠.
데이터 판매에만 집중하는 기업들처럼
고객을 찾을 필요도 없습니다.
구글은 그럴 필요가 없죠.
구글은 업계에서 독보적인 위치에
있어서 다른 어떤 기업도
근접하지 못할 정도입니다.
이러한 우위는 앞으로도 구글에게
놀라운 성과를 가져다 줄 것으로 예상됩니다.
모델의 놀라운 성능이나
처리 속도, 가격 면에서도요.
특히 가격은 정말 믿을 수 없을 정도입니다.
여기 가격을 보시면, Gemini Flash Light는
놀랄 만큼 저렴합니다.
비슷한 성능의 모델인
GPT-4와 비교하면, 입력과 출력 토큰 모두
25배나 저렴합니다.
이는 정말 믿기 힘든 수준이죠.
다만, Pro 모델의 가격은
아직 공개되지 않았습니다.
2.5가 아닌 2.0 Pro 버전이
아직 실험 단계이기 때문입니다.
구글은 실험 단계의 모델에 대해서는
요금을 부과하지 않습니다. 그래서
Pro 버전의 가격은 아직 모릅니다.
아직 가격에 대해서는 알 수 없지만,
Gemini와 비슷한 수준의 다른 모델들 간의
성능 차이가 매우 크다는 것을 고려하면,
이러한 격차는 계속될 것으로 예상됩니다.
성능에서 선두를 달리고 있음에도 불구하고,
Google이 가격 경쟁력에서도
앞설 것으로 예상합니다. T3 채팅에서
Gemini는 너무나 인기가 있어서
100만 개가 넘는 메시지가 전송되었는데,
이는 정말 놀라운 수치입니다.
비용 측면에서 보면, 100만 메시지에
약 1,200달러가 들었습니다. Claude는
절반도 안 되는 메시지 수로
31,000달러가 들었죠.
Claude의 3.5와 3.7이 2.0 Flash보다 나은 모델인가요?
네, 하지만 60배 이상 더 나은 건 아닙니다.
Gemini는 이전에는 불가능했던 일들을 가능하게 만들었습니다.
엄청난 컨텍스트 윈도우 크기와
가격 때문입니다.
Gemini 2.0으로 할 수 있는 일들은
정말 말도 안 되게 대단합니다.
앞으로 AI 서비스 요금이 이 정도 수준으로
낮아질 미래가 기대됩니다.
여기서 고려해야 할
다른 한 가지가 있습니다.
바로 자금입니다. Nvidia, Anthropic,
OpenAI, 그리고 당연히 Google을 제외한
다른 모든 회사들은 이런 연구를 위해
많은 투자를 해야 합니다.
이는 우려스러운 부분인데, 특히 요즘은
자금 조달이 예전만큼 쉽지 않기 때문입니다.
물론, Grock의 경우
최근에 대단한 거래를 성사시켜서
15억 달러 규모의 투자를
확보했습니다. 하지만 이는 즉시 받는 돈이 아니라
시간이 지나면서 받게 될 금액입니다.
고객사가 자사의 칩을 사용해
다양한 서비스를 출시하면서
점진적으로 받게 되는 거죠.
하지만 이는 Google이 자유롭게 쓸 수 있는
자금에 비하면 아무것도 아닙니다.
이는 Google이 이론적으로는
손실을 감수할 수 있다는 뜻이기도 합니다.
하지만 실제로 손실을 보고 있는지는 모릅니다.
그들이 사용하는 하드웨어 비용을
알 수 없기 때문입니다.
하드웨어에 대해서는
존재한다는 것과
꽤 좋아 보인다는 것 외에는
알려진 게 없습니다. 판매하지도 않고요.
이것이 아마도 Google과
다른 회사들의 가장 큰 차이점일 겁니다.
Google은 승리하기를 원하기 때문에,
개별 제품을 판매하는 대신
모든 것을 하나로 묶어서
API로 제공할 것입니다.
OpenAI는 Azure와 협력하여
자체 인프라를 구축했지만,
Azure에서 직접 OpenAI 모델을
호스팅할 수 있습니다. Deepseek는
거의 항상 다운되어 있는 API가 있어서
모델을 직접 호스팅해야 합니다.
Anthropic는 엄청나게 비싸고
특히 최근 수요가 많아지면서
가동 시간도 터무니없이 불안정한
API를 가지고 있지만, GCP나 AWS같은
다른 클라우드 제공업체에서 호스팅이 가능합니다.
하지만 Google은 절대로 자사의 모델을
다른 클라우드에서 사용하도록 허용하지 않을 겁니다.
Google에게는 자체 GCP가 있기 때문이죠.
이것은 거의 플랫폼이라는
또 다른 카테고리로 분류될 수 있습니다.
Google은 AWS나 Azure와 같은 실제 클라우드 플랫폼을 보유하고 있으니까요.
Google Cloud Platform이 있죠. 그리고 제가
과거에 많이 조롱했던 것처럼,
오늘도 방해가 많이 되어서
조롱했지만, 실제로 존재하고 작동합니다.
엉망진창이긴 하지만, 그럼에도 불구하고
이러한 분야들에서 너무나 강력하기 때문에
그들은 이를 극복할 수 있습니다.
정말 놀라운 일이죠.
지난 10년 동안 Google Cloud를
계속해서 비판해왔지만,
지금은 그 어느 때보다도
더 많이 사용하고 있고,
다른 플랫폼들보다도 더 자주
대시보드를 들여다보고 있습니다. 구글이 이 분야에서
완전히 승리했거든요. 제가 화나는
얘기 하나 해도 될까요? 애플은 도대체
어디 있는 걸까요? 전 그저 시리가
기본적인 질문 하나만 제대로 답해주길 바랄 뿐인데요.
애플은 지금 곤경에 처해있습니다. 이런
분야들에 전혀 준비가 되어있지 않았거든요.
애플은 사생활 보호를 중시하는 기업이라
데이터가 전혀 없습니다.
프라이버시가 항상 그들의 초점이었기에
모델을 학습시키는데 필요한
데이터가 존재하지 않죠. 과학적인
측면에서도 역사적으로
투자와 채용이 부족했습니다.
데이터가 없으니까요.
그래서 좋은 추천 시스템
같은 것들이 없는 거죠.
심지어 시리조차도 자체 개발한 게
아닙니다. 내부에
인재가 없어서 인수한 거죠.
그리고 하드웨어 측면에서는
뛰어난 것들이 있음에도 불구하고,
애플의 하드웨어는 전적으로
와트당 성능을 얼마나 끌어올릴 수 있는지에만
초점이 맞춰져 있습니다. 이건
폰과 태블릿, 그리고
제가 지금 사용하고 있는 것 같은
작은 노트북에는 좋지만,
이런 종류의 추론 작업에는
전혀 도움이 안 됩니다. 애플이 얼마나
강력한 데스크톱 컴퓨터를 만드는 게
어려운지 우리는 봤죠. 그저 같은 칩을
더 많이 붙이고 최선을
바랄 뿐입니다. 애플의 하드웨어 부서는
우리가 주머니에 넣고 다니는 기기들을 위해
미친 듯이 혁신하고 있지만,
다른 분야에서는 거의 아무것도
하지 않고 있어요. 로컬 추론이 필요하다면,
맥 미니 여러 대를
묶어서 쓸 수는 있죠. 예상보다는
낫지만, 여전히 Grock이나 Cerebrris,
엔비디아나 구글이 하는 것에 비하면
아무것도 아닙니다. 그들이
투자하는 분야가 아닌 거죠.
동의합니다. 이 시장에서 애플의 위치는 좋지 않고
계획 부족의 결과는 부끄러운 수준입니다.
애플의 하드웨어는 이런 것들을
로컬에서 실행할 만큼
충분히 좋습니다. 그리고
Ollama 같은 회사들을 통해
봤듯이, Ollama는 놀랍도록 간단하게
작은 프로그램만 설치하면
컴퓨터에서 로컬로 모델을 실행할 수 있게 해줍니다.
애플의 하드웨어도 꽤 괜찮은
속도로 이를 처리할 수 있습니다. 하지만
애플은 아직 이 모든 것을
스스로 파악하지 못했죠. 구글에 대해
마지막으로 강조하고 싶은 게 있습니다.
역사적으로 Google Cloud는, 음... 어떻게 표현하지?
시장 흐름을 잘 읽지 못했다고 할까요? GCP는 항상
실제로 세상의 흐름을
제대로 이해하지 못하는 것 같았어요.
우리가 Next로 멋진 서버리스
작업을 하고 있을 때도 그들은
"구글 클라우드 런을 써보세요"라고만 했죠.
시도해봤지만 20개나 되는
망가진 입력 박스와
제대로 작동하지 않는 GitHub
연동으로 결국
배포가 실패했어요. 정말 부끄러운 일이었죠.
하지만 AI 부문에서는
전혀 다른 경험을 했어요. 여러분이 모르실 수도 있는데,
로건은 계속해서 트위터 스페이스에서 활동하면서
새로운 기능이 나올 때마다
주요 발표자로 나서고
새로운 소식을 전달하고
사람들의 질문에 답변하고, DM으로
이 모든 것을 시도하는 사람들과
소통하면서 AI 제품이 제대로 작동하도록
만들었어요. AI 스튜디오는 다른 구글 클라우드 제품보다
훨씬 더 뛰어납니다.
AI 스튜디오에서 다른 구글 클라우드
제품으로 전환할 때 웃긴 상황이 발생하는데
예를 들어 서비스가 얼마나
사용되고 있는지 GCP에서 확인하려면
AI 스튜디오에서는 아직 사용량 데이터를 볼 수 없어서
구글 클라우드로 가야 하고,
그때서야 그들이 이런 문제들을
해결하기 위해 얼마나 노력했는지
알 수 있죠. 이 이야기를 하는 이유는
이번 릴리스에 대한 소통이 정말 좋았기 때문입니다.
이건 구글의 연구 및 딥러닝 부문 VP인
오럴의 공식 발표인데요.
그의 포스트에서는
육각형 데모를 사용했어요.
저는 이게 정말 멋지다고 생각해요.
그들이 이 분야에서 무슨 일이
일어나고 있는지 충분히 인지하고 있다는 점이
진정으로 좋습니다. 트위터와
다른 공간에서 우리와 소통하고
제 영상도 보고
연락도 하면서 전반적인 공간에 참여하고
실제로 우리가 이야기하는 것을 바탕으로
콘텐츠를 생성한다는 걸 보여주고 있어요.
정말 멋지죠. 이런 수준의
인식은 구글에서 본 적이 없었어요.
이전에는 이렇게 이해하는 모습을 본 적이 없죠.
사람들이 실제로 이 분야에서 무엇을 하고 있는지
관심을 기울이는 구글을 보니
좋네요. 우리가 실제로 이 기술을
어떻게 사용하는지 주목하고 있어요.
죄송합니다만 잠깐 중단하겠습니다.
제가 촬영할 때 구글에 대해
너무 호의적이었던 것 같네요. 스트리밍 후에
아, 안녕하세요. 스트리밍 후에
좀 실망스러운 정보를 발견했거든요.
왜 이렇게 하는지 이해는 하지만
다들 그렇게 하니까요.
영상에서 언급하지 않은 걸 명확히 하고 싶어서요.
스튜디오에서 보이는 모델의
사고 능력이
API 출력에서는 제공되지 않습니다.
AI 스튜디오에서 질문을 할 때
안녕 친구야. 죄송해요 방해해서.
챗봇도 감정이 있잖아요.
보시다시피 실행했을 때
바로 응답이 나왔어요. T3 챗이
추론을 할 수 있어야 하는데도요.
이게 의심스러웠죠.
내장되어 있다고 생각했거든요.
여기서 같은 질문을 하면
이런 사고 과정이 나타나요.
이건 답변을 내기 전의
모든 사고 과정이에요.
우리 고양이가 계속 가르랑거리면서 애정표현을 하네요.
죄송합니다. AI 스튜디오를 통해
사용할 때는 이런 모든 사고 과정을
볼 수 있어요. 여기 명확하게 보이죠.
하지만 API를 통해 사용하면
이런 게 전혀 없어요.
그냥 답변만 기다려야 해요.
이건 정말 아쉽죠.
이런 데이터를 API를 통해
제공해주면 정말 좋을 텐데
문서에서 언급했듯이 현재는 불가능합니다.
그래서, 구글 여러분
듣고 계시다면
이 문제를 해결해주세요. 다시 말하지만
2.5 Pro는 정말 놀라운 모델입니다.
구글이 정말 열심히 노력했고
매우 좋은 위치에 있어서
지금 그들의 경쟁자가 되고 싶지 않네요.
T3 Chat이 사실상 그들의
경쟁자임에도 불구하고 하는 말입니다.
여러분은 어떻게 생각하시나요? 이 모델이 마음에 드나요?
싫으신가요? 제가 구글이 잘 자리잡았다고
생각하는 게 미친 소리처럼 들리나요?
아니면 그들이 승리할 거라 생각하시나요?
댓글로 알려주세요. 다음 시간까지
T3 Chat 구독 부탁드립니다.
어떻게든 비용은 내야 하니까요.
여러분의 도움이 필요합니다.