Gemini 2.0이 나를 놀라게 했다

채널 아이콘
Theo - t3․gg 구독자 439,000명

요약

영상은 Google의 최신 AI 모델 Gemini 2.0에 대한 평가와 분석을 담고 있다. 발표자는 Gemini 2.0의 성능, 가격, 토큰 비용 등 구체적인 수치를 바탕으로 다른 AI 모델과의 차별점을 설명한다. 또한 T3 Chat 및 Savala와 같은 실제 개발 도구 경험과 API, 인프라 이슈를 언급하며, 앞으로 AI 가격 경쟁 및 기술 발전의 방향성을 전망한다.

주요 키워드

Gemini 2.0 Google AI T3 Chat Savala 가격 비교 토큰 비용 컨텍스트 윈도우 API 인프라 칩 기술

하이라이트

  • 🔑 Gemini 2.0의 놀라운 성능과 예상치 못한 기능들이 강조됩니다.
  • 🚀 다양한 AI 모델들의 가격, 토큰 비용 및 성능 비교가 상세히 이루어집니다.
  • ⚡️ 높은 토큰 컨텍스트 크기와 빠른 데이터 처리 속도가 개발 효율성을 높입니다.
  • 🌟 Google의 자체 칩 기술 및 인프라가 경쟁 우위를 선사하는 요소로 부각됩니다.
  • 📌 T3 Chat과 Savala 같은 플랫폼을 통한 실제 사용 사례와 개발 도구 사용 경험이 공유됩니다.
  • 🚀 API 설정 및 통합 이슈와 함께, 개발자 경험 개선을 위한 다양한 전략이 언급됩니다.

용어 설명

Gemini 2.0

Google이 선보인 최신 AI 모델로, 뛰어난 응답 속도와 비용 효율성을 특징으로 함.

T3 Chat

AI 기반 채팅 인터페이스를 제공하는 플랫폼으로, Gemini 2.0 등의 모델을 체험할 수 있음.

Savala

개발자 경험 개선을 목표로 하는 플랫폼으로, 빠른 배포 및 클라우드 서비스 연동 기능을 제공함.

Flashlight 모델

빠른 응답과 경량화를 지향하는 AI 모델 버전으로, 비교적 저렴한 가격에 제공됨.

Context Windows

AI 모델이 한 번에 처리할 수 있는 데이터의 양을 의미하며, 토큰 수로 표현됨.

Grock

빠른 추론 및 응답 생성을 목표로 설계된 AI 칩 제조 회사로, 높은 성능을 제공함.

[00:00:00] Gemini 2.0 소개 및 첫인상

Google의 최신 Gemini 2.0 모델에 놀라움을 표시하며, 경쟁사 대비 우수한 성능과 기능을 강조합니다. 발표 초반, 왜 기존 데이터와 기술력을 갖췄음에도 뒤처졌는지 설명합니다.

구글이 AI 경쟁에서 뒤처진 것에 대한 놀라움을 표현하며, 그들의 역사와 데이터를 고려할 때 이해하기 어렵다고 설명합니다.
Gemini 2.0의 등장으로 구글이 더 이상 뒤처지지 않게 되었으며, 예상보다 훨씬 뛰어난 성능을 보여준다고 강조합니다.
[00:00:35] T3 Chat 및 스폰서 소개

T3 Chat에서 Gemini 2.0을 무료로 활성화한 경험과 함께 Savala 플랫폼을 통한 개발자 지원 내용을 언급합니다. 스폰서 소개를 통해 실제 개발 환경에서의 도구 사용 경험을 공유합니다.

T3 chat에서 무료로 사용 가능하며, 플래시 라이트 버전의 놀라운 속도에 대해 언급합니다.
스폰서 Savala 소개를 시작하며, Vercel과 같은 우수한 개발자 경험을 제공한다고 설명합니다.
Savala의 주요 기능들을 소개하며, PHP 지원과 간편한 배포 과정에 대해 설명합니다.
Cloudflare 통합, 데이터베이스 관리, PR 미리보기 등 고급 기능들과 자동화 옵션에 대해 상세히 설명합니다.
[00:02:00] 가격 및 성능 비교 분석

다양한 AI 모델들의 가격, 성능, 토큰 비용에 대해 세부적으로 비교합니다. Gemini 2.0의 빠른 응답과 놀라운 가격 경쟁력이 부각되는 부분입니다.

개발자들을 위한 SaaL 서비스 소개와 50달러 무료 크레딧 제공 안내
Artificial Analysis 사이트 소개와 현재 실험 버전 사용 중인 상황 설명
구글의 실험 모델 정책: 무료 사용과 사용량 제한에 대한 설명
2.0 공식 모델과 실험 버전의 차이점 및 요금 부과 정책 변경 설명
실험 모델 사용시 발생하는 사용량 제한과 비용 예측의 어려움 설명
다양한 AI 모델들의 가격 비교: GPT-4와 GPT-4 Mini의 가격 구조 분석
[00:04:00] 토큰 컨텍스트 및 확장성

AI 모델들이 한 번에 처리할 수 있는 토큰 수, 즉 컨텍스트 윈도우 크기에 대해 설명합니다. 대용량 데이터 처리와 이에 따른 비용 효율성 문제를 함께 다룹니다.

Claude 3.5 Sonnet의 높은 가격과 DeepSeek의 혁신적인 가격 정책 소개
R1 모델의 뛰어난 성능과 경쟁력 있는 가격, GPT-4와의 성능 비교 분석
품질 대비 가격 분석에서 각 모델들의 위치와 특징 설명
Gemini와 V3는 가격 대비 품질이 합리적이며, Claude는 새로운 모델들과 비교해 품질 대비 비싼 편입니다. Llama 40 mini는 저렴하지만 성능이 기대에 미치지 못합니다.
Gemini의 성능은 다른 모델들에 근접하며, 많은 영역에서 Claude를 능가합니다. 특히 가격이 매우 저렴하여, 입력당 10센트(라이트 모델은 7센트)로 책정되었습니다.
컨텍스트 윈도우 크기에 대한 설명으로, 대부분의 모델이 128K 토큰을 처리할 수 있으며, Claude는 200K, Google의 Gemini는 1-2백만 토큰을 처리할 수 있습니다.
Gemini의 큰 컨텍스트 윈도우 덕분에 전체 코드베이스를 한 번에 처리할 수 있으며, 저렴한 가격으로 효율적인 분석이 가능합니다.
Gemini Pro 버전은 곧 200만 토큰 범위를 지원하며, 벤치마크에서도 우수한 성능을 보일 것으로 예상됩니다.
[00:08:00] 개발자 경험 및 인프라

Google AI Studio, API 및 SDK 사용의 장단점과 설정의 어려움을 설명합니다. Google의 자체 칩 기술과 통합 인프라가 개발 환경에 미치는 긍정적 영향을 언급합니다.

구글의 새로운 모델은 조작할 수 없는 놀라운 성능 수치를 보여주고 있으며, Anthropic의 Claude와 비슷한 품질을 훨씬 저렴한 가격으로 제공합니다.
rate limit 문제만 없다면 T3 채팅의 기본 모델로 설정할 계획이며, 현재 AI Studio에서 실험적인 thinking 모델을 테스트 중입니다.
비용과 부하 문제로 인해 아직 T3 채팅에 추가할 수는 없지만, 모델의 성능을 테스트하기 위해 Advent of Code 문제를 풀어보았습니다.
기존 reasoning 모델들의 느린 속도와 잦은 다운타임 문제와 달리, Gemini는 빠른 속도로 실용적인 결과를 제공하며 GPT-3.5보다 우수한 성능을 보여줍니다.
Gemini의 라이트 모델은 단순한 텍스트 처리를 넘어 이미지, 비디오, 오디오까지 처리할 수 있으며, 스탠다드와 프로 버전은 더 고급 기능을 제공합니다.
다른 AI 모델들과 달리 Gemini는 검색 기능이 기본 내장되어 있어, 별도의 구현이 필요 없습니다.
대부분의 AI 제공업체들은 '도구' 개념을 통해 웹사이트나 서비스 연결을 구현해야 하지만, 구글은 이미 검색 기능이 통합되어 있습니다.
브라우저 베이스와 같은 플랫폼을 통해 AI가 웹을 탐색할 수 있는 헤드리스 도구를 구축할 수 있습니다.
이러한 통합 검색 기능이 Gemini를 주목하게 된 주요 이유이며, 이는 이제 비즈니스의 중요한 부분이 되었습니다.
Claude의 예상치 못한 가격 인하와 새로운 기능 출시는 AI 채팅 앱 시장에 큰 변화를 가져왔습니다.
구글의 자체 프로세서 개발 노력이 이러한 저렴한 가격을 가능하게 만든 핵심 요인으로 보입니다.
구글이 자체 칩 개발에 성공하여 AI 및 텐서 워크플로우를 위한 고성능 컴퓨팅을 구현했습니다. 이전 세대보다 3배 빠른 추론 속도와 4배 향상된 학습 성능을 보여줍니다.
구글은 필요한 모든 데이터, 엔지니어링 팀, 연구진, 그리고 컴퓨팅 파워를 보유하고 있어 현재 시장에서 강력한 경쟁력을 가지고 있습니다.
Grock(Q)은 협업 파트너로서 뛰어난 성능을 보여주며, 특히 R1과 Llama 모델에서 매우 빠른 처리 속도를 자랑합니다.
Grock-Q는 추론에 특화된 칩을 개발하는 회사로, 주로 Llama 기반 모델에 최적화되어 있으며, 초당 3,000 토큰이라는 놀라운 처리 속도를 보여줍니다.
하지만 Grock의 한계점으로는 제한된 입력 크기(대부분 32k 컨텍스트), 컨텍스트 증가에 따른 성능 저하, 그리고 모델에 대한 제한된 통제력이 있습니다.
Google은 모든 요소(데이터, 모델 개발, CPU, 아키텍처)를 소유하고 있어 통합된 시스템을 구축할 수 있습니다. 이는 Apple이 iPhone의 모든 구성 요소를 통합 관리하는 것과 유사합니다.
Google이 AI 분야에서 Apple과 같은 위치에 있으며, 인터페이스가 불편함에도 불구하고 AI Studio 등 새로운 도구들은 개선되고 있습니다.
[00:16:00] 마무리 및 향후 전망

가격 경쟁력과 기술 발전에 따라 AI 시장이 변화할 전망을 제시합니다. 타 경쟁사들이 가격 및 성능 조정에 나설 가능성과 Google의 미래 전략을 기대합니다.

가격, 개발자 경험, 품질, 모델 성능 등 모든 분야에서 경쟁이 필요하며, Google이 유일하게 이 모든 영역에서 경쟁하고 있습니다.
API 키 발급 과정은 복잡하지만, 일단 발급받으면 AISK나 Open Router 프로젝트와 같은 래퍼를 통해 쉽게 연동할 수 있습니다.
AISK를 사용하면 다양한 제공업체를 쉽게 추가할 수 있으며, 환경 변수만 올바르게 설정되어 있으면 간단히 작동합니다.
Vertex AI의 인증 시스템 문제점을 설명합니다. 환경 변수 대신 특별한 자격 증명과 private key가 필요하며, Google의 복잡한 인증 시스템으로 인해 구현이 매우 어렵다고 합니다.
Vertex AI 대신 Google AI Studio 사용을 추천합니다. 더 간단하고 접근하기 쉬우며, 만약 오픈 모델이었다면 더 큰 영향을 미칠 수 있었을 것이라고 설명합니다.
T3 chat 서비스 사용법을 소개하고, Flash와 Flashlight 모델의 이용 방법 및 가격에 대해 설명합니다.
구글이 AI 경쟁에서
이렇게 뒤처진 것을 보고 좀 놀랐습니다.
그들의 역사와
보유한 데이터, 그리고
그들이 이미 해낸 모든 것들을 생각하면
이렇게 뒤처진 것이 말이 안 되죠.
구글 검색이 성공한 이유는
바로 적절한 알고리즘을 작성하고
우리가 기대하는 검색 결과를 제공하기 위한
올바른 데이터를 수집했기 때문입니다.
하지만 오늘날은 더 이상 뒤처져 있지 않습니다.
왜냐하면 Gemini 2.0이
정말 대단하거든요. 제가 예상했던 것보다
훨씬 뛰어나고,
여러분이 예상하지 못한 이유들로
아마도 지금까지 나온 것 중
제가 가장 좋아하는 딥러닝 모델일 것 같습니다.
그래서 T3 chat에서
무료로 사용할 수 있게 했죠. 네, 정말입니다.
T3 chat 2.0에서 무료로 사용 가능하고
더 빠른 플래시 라이트 버전도 있는데
그 속도가 정말 놀랍습니다.
이게 실시간으로 처리되는 게 말이 안 되죠.
뭔가 함정이 있을 것 같은데,
아마도 비용이 많이 들거나
성능이 떨어지거나 그럴 것 같습니다.
아직 확실히는 모르겠지만,
이것에 대해 자세히 알아볼
많은 것들이 있습니다. 본격적으로 알아보기 전에
오늘의 스폰서 소개를 하겠습니다.
누군가는 제 AI 비용을 지불해야 하니까요.
제 채널을 보신 분들은
Vercel 같은 플랫폼에서
개발자 경험이 얼마나 좋은지
보셨을 겁니다. 자바스크립트
개발자가 아니라면 이런 경험을
못해보셨을 텐데, 오늘의 스폰서 Savala가
이런 경험을 모두에게 제공하며,
어쩌면 더 나은 경험을 제공합니다.
Savala는 거의 모든 것을 배포할 수 있게 해주고
PHP에도 매우 능숙합니다.
실제로 이 회사는
대형 워드프레스 호스팅 회사인 Kinsta의
일부이지만, 그 이상을 할 수 있습니다.
저는 PHP를 잘 모르지만
라라벨 앱을 정말 5번의 클릭만으로
배포할 수 있었습니다. 예전에는
혼자서 이걸 알아내느라
많은 시간을 보냈었죠.
여기 보이는 이미지처럼 단순한 기능만
제공한다면 그것도 좋겠지만,
더 많은 기능을 제공합니다. Cloudflare를
앞단에 설정해주고
모든 작업 내용을 보여줍니다.
이미지나 정적 페이지 같은
정적 자산이 있다면 PHP 서버가
시작될 때까지 기다릴 필요 없이
Cloudflare에 올릴 수 있고
이 모든 것이 설정 가능합니다.
데이터베이스 같은 것들도 마찬가지죠.
서버리스가 아닐 때는
PR이 올라올 때 미리보기 빌드가
URL과 함께 생성되어
작동 방식을 확인할 수 있는데,
여기서는 이런 설정이 굉장히 쉽습니다.
파이프라인에 가보면
제가 올린 'please sub' PR에 대해
미리보기 앱을 만들 수 있고,
버튼만 누르면 즉시 실행됩니다.
자동으로 설정할 수도 있고
PR이 승인되어 메인에 머지되면
자동으로 프로덕션 배포가
이루어지게 할 수도 있습니다.
만약 더 현대적이고
우리가 실제로 필요로 하는 서버 호스팅을
찾고 계시다면
개발자들에게 SaaL은 최고의 선택지 중 하나입니다.
SaaL에서 50달러 상당의
무료 크레딧을 확인해보세요. s.al에서
제가 가장 좋아하는 사이트인 Artificial
Analysis부터 시작해보겠습니다.
이 사이트에 많은 시간을 보냈는데,
주목할 만한 점은 아직
공식 출시 버전으로 업데이트하지 않고
여전히 실험 버전을 사용하고 있다는 것입니다.
구글이 하는 특이한 점 중 하나는
실험 모델에 대해서는
요금을 부과하지 않는다는 것입니다. 대신 사용량을
엄격하게 제한하지만, 무료로 접근할 수 있습니다.
제가 아는 한, 2.0 공식 모델은
실험 버전과 아마도 동일할 것이고
완전히 같지 않더라도
매우 유사할 것입니다. 차이점은
이제 요금을 부과한다는 것입니다.
이는 훨씬 더 높은 사용량 제한을
제공할 수 있다는 의미이며, 이제 비용이
얼마인지 알 수 있게 되었습니다. 이전에는
실험 모델을 사용할 경우
실제 트래픽에서는 거의 확실하게
사용량 제한에 도달했을 것이고
더 중요한 것은, 실제 출시되었을 때
최종 청구서가 얼마가 될지
전혀 알 수 없었을 것입니다. GPT-4 Mini처럼
백만 입력 토큰당 15센트에
가까운 가격이 될지,
아니면 GPT-4처럼 100 입력 토큰당
15달러에 가까운 가격이 될지
백만이든 천이든 입력 토큰당
저는 이 모든 숫자들을
추적하려고 노력해왔습니다.
추적하기가 어렵기 때문이죠. Artificial Analysis가
잘 하고는 있지만, GPT-4에 대해
단순 출력만 하고 있습니다. GPT-4는
기본적인 모델로, 입력당 백만 토큰에
250달러, 출력당 백만 토큰에 10달러로
나쁘지는 않지만 좋지도 않습니다. GPT-4 Mini는
놀랍도록 저렴해서 백만 입력 토큰당 15센트,
10분의 1도 안 되는 비용이고, 출력은 60센트로
역시 10분의 1도 안 되는 비용입니다.
GPT-4는 터무니없이 비싸서 GPT-4 Mini보다
100배나 더 비쌉니다. 하지만 이는
이러한 모델을 실행하는 데 필요한
컴퓨팅 비용을 이해하면 납득이 됩니다.
그리고 제가 가장 불만스러워하는 것이 있는데,
거의 파산할 뻔했던
Claude 3.5 Sonnet입니다. 백만 입력 토큰당 3달러,
출력 토큰당 15달러를 청구하죠.
하지만 DeepSeek가 등장해서 시장을 흔들어놓았습니다.
백만 입력 토큰당 27센트,
출력당 1.10달러인 기본 모델,
이전 버전의 가격이
여전히 적용되고 있는데,
GPT-4 Mini보다도 저렴하다는 게 놀랍습니다.
하지만 정말 대단한 건 R1 모델입니다.
백만 입력당 55센트, 출력당 2.20달러로
믿을 수 없이 저렴합니다. 특히
R1의 품질을 고려하면 더욱 그렇죠.
대부분의 평가에서 OpenAI의
추론 모델만큼 좋거나 더 뛰어납니다.
코딩 인간 평가에서는,
어려운 코딩 문제를 해결하는 테스트인데,
R1이 GPT-4를 근소하게 이겼습니다.
매우 근소한 차이였지만, 승리했죠.
정말 뛰어난 모델이고, 이 가격에
말도 안 되게 좋습니다. 품질 대비
가격 섹션을 보면, GPT-4가
저 구석에 멀리 떨어져 있는 것을 볼 수 있습니다.
GPT-4를 꺼보겠습니다. 모든 그래프를
망가뜨리거든요. 그러면 흥미로운 점을 보실 수 있는데,
R1과 O03 Mini가
Gemini와 V3는 가격 대비 품질 분석에서
훨씬 더 합리적인 수준을 보여줍니다. Claude는
다른 새로운 모델들과 비교했을 때
품질 대비 매우 비싼 편이고,
Llama 40 mini는 놀랍도록 저렴하지만
예상외로 성능이 좋지 않습니다.
Gemini가 여기에 포함되지 않은 이유는
촬영 당시 사이트가
새로운 Gemini 모델과
새로운 가격으로 업데이트되었기 때문입니다.
그렇다면 얼마나 비쌀까요?
품질은 이미 다른 모델들에
매우 근접해 있습니다.
추론 모델들에 매우 근접하고
많은 부분에서 Claude를 능가하고 있으며
코드 면에서는 비슷하지만
거의 모든 다른 영역에서 뛰어납니다.
이것을 무료로 제공하면서
파산하지 않을까요? 입력당 1백만 토큰에 10센트,
출력당 40센트입니다. 이게 라이트 모델이 아닙니다.
라이트 모델은 입력당 7센트,
출력당 30센트입니다. 우리는 새로운
최저가 모델을 갖게 되었습니다.
Flash Light는 정말 놀랍습니다. 두 모델 모두
Llama 40 mini보다 저렴하고,
DeepSeek보다 훨씬 더 저렴합니다.
그리고 라이트 버전은 너무나 저렴해서
거의 공짜나 다름없습니다. 정말 믿을 수 없죠.
또 다른 중요한 점은
컨텍스트 윈도우입니다. 컨텍스트 윈도우는
응답을 생성하면서 처리할 수 있는
데이터의 양을 의미합니다. AI 모델에
너무 많은 데이터를 주면 작동이 중단됩니다.
이것은 다른 차트입니다. 이 차트는
컨텍스트 윈도우의 크기를 기반으로 하며
실제 크기는 이렇습니다.
구글 모델들을 제외하겠습니다.
너무 압도적이기 때문입니다.
대부분의 모델들은 128K 토큰의
컨텍스트를 가지고 있습니다. 이는
약 128,000개의 단어를 처리하면서도
응답을 생성할 수 있다는 의미입니다.
엄청난 양의 단어죠.
많은 토큰입니다. 저는 매우 큰
코드베이스들이 대부분의 모델이 가진
128K 토큰 제한 안에 충분히 들어가는 것을 봤습니다.
Claude의 Sonnet과 Haiku는 실제로
200K 마크로 꽤 높은 편이고
OpenAI는 이를 도전으로 받아들여
GPT-4와 GPT-3.5로 맞췄습니다.
콘텐츠 크기가 이제는 너무 커서
더 이상 문제로 느껴지지도 않습니다.
구글은 Gemini 1.5에서 2백만을 달성했고
2.0에서는 1백만을 유지하고 있습니다.
1백만 토큰이면 대부분의 코드베이스가
이 컨텍스트 윈도우 안에 들어갑니다.
즉, Gemini에 전체 코드베이스를 주고
무언가를 찾아달라고 할 수 있으며
물론 입력과 출력 토큰당 비용이 발생하지만
백만 토큰의 코드베이스를 준다고 해도
아, 맞다! 단지 10센트밖에 안 듭니다.
신경 쓸 필요가 없죠.
이것이 정말 믿을 수 없는 점입니다.
다른 모델에서 이런 분석을 하려면,
Llama 40 mini같은 저렴한 모델이라도
입력당 15센트지만,
이제 백만 토큰을 파싱할 수 있는
형태로 변환해야 합니다.
자체 레이어를 구축해야 하고
RAG 같은 것을 만들어서
데이터를 찾고 실제로 가져와서 적용하는 방법을
찾아야 합니다.
하지만 백만 토큰이면
이런 걱정을 할 필요가 없습니다.
정말 대단하죠. 곧 출시될
Pro 버전은
아직 얼리 액세스 상태인 Pro 버전은
200만 토큰 범위를 가질 예정이고
벤치마크에서도 훌륭한 성과를 보일 것이 거의 확실해요
이 모델들이 출시되는 게 정말 기대됩니다
유튜브가 아닌 구글 제품에 대해
이렇게 설레다니 믿기지 않네요
구글의 새로운 모델에 대해
이렇게 흥분될 줄은 몰랐어요
이런 수치는 조작할 수 없거든요
그리고 지금 구글의 수치는
정말 놀랍도록 좋아 보입니다
전반적인 품질 수준이
Anthropic과 비슷한데 가격은
말도 안 되게 낮아요
Flash가 Claude와 비슷하거나 더 나은 성능을 보이면서
출력 토큰 비용이 40분의 1이라는 게
정말 놀랍습니다. 30배 이상의 비용 절감 효과가 있는
어떤 면에서는 더 나은 모델로의 전환이죠
DeepSeek에 대한 걱정도 이제는
없어진 것 같아요. 구글이 이제
최고 품질의 가장 저렴한 모델을 가지게 됐고
경쟁이 안될 정도예요
아마도 T3 채팅에서
rate limit에 문제만 없다면
이걸 기본 모델로 설정할 것 같아요
너무 미쳤죠. 게다가 이게 전부가 아니에요
여기까지만 해도 놀라울 텐데
여기 공식 AI Studio에서
API에서 thinking 데이터를 아직 얻을 수 없어서
보여드리려고 합니다
아직 깊이 알아보진 않았지만
여러분께 보여드리고 싶은 게
실제로 thinking 모델이 있다는 거예요
이 Gemini 2.0 flash thinking experimental을 보세요
비용이 0이고
rate limit이 분당 10회로 꽤 제한적이에요
아직 T3 채팅에 추가할 수는 없어요
비용이 얼마나 될지 모르고
수십만 명의 T3 채팅 사용자들이
사용하면 부하가 심할 테니까요
하지만 얼마나 좋은지
보여드리고 싶어요
물론 여기 채팅 인터페이스는
최상은 아닐 거예요
그들의 주력 분야가 아니니까요
그들은 모델에 더 집중하고 있죠
테스트를 위해
제가 가장 좋아하는 문제를 풀어볼게요
Python으로 Advent of Code 2021 day 5를 풀어보겠습니다
여기 thinking하고 있네요
그리고 생각하는 속도가 느리지 않아요
reasoning 모델들의 문제점 중 하나는
많은 호스트들이 빠르지 않다는 거였어요
게다가 공식 호스트들이
자주 다운되곤 했죠
DeepSeek의 성능이 좋고
결과에 만족하더라도
가격도 좋았지만
API가 8일 동안이나 다운됐어요
이제 돌아온 것 같아서
드디어 T3 채팅에 다시 추가할 수 있을 것 같아요
공식 제공자를 통해서요
빠른 thinking reasoning 모델이
실제로 사용 가능한 결과를 빠르게 제공한다는 건
정말 대단한 일이에요
reasoning을 포함해서 8초 만에
문제를 해결했다는 건
GPT-3.5보다 여러 면에서 더 낫고
훨씬 저렴하다는 거죠
아마도 손해를 보면서
서비스하고 있는 것 같아요
이해하기 힘들 정도니까요
게다가 이게 다가 아니에요
지금까지는 자동완성과 텍스트에 대해서만 얘기했는데
이건 단순한 텍스트 입출력이 아닙니다.
여기서 우리가 보고 있는 라이트 모델은
텍스트, 이미지, 비디오, 오디오까지 모두 처리할 수 있습니다.
그리고 스탠다드와 프로는 더 나아가서,
오디오 처리에는 약간 더 비용이 들지만
더 고급 기능을 제공합니다.
또한 검색 기능도 내장되어 있어서
모델에 검색 기능을 설정할 수 있습니다.
다른 모델들과 달리 직접 구현할 필요가 없죠.
거의 모든 다른 모델에서는
검색 기능을 직접 추가해야 했습니다.
대부분의 AI 제공업체들은 현재
'도구'라는 개념을 사용하는데,
AI에게 특정 기능을 수행할 수 있다고 알려주고
인터페이스를 제공한 다음,
웹사이트나 다른 서비스에 연결되는
실제 기능을 직접 구축해야 합니다.
'구글에서 검색하고 결과를 가져오려면
이 세 가지를 호출하세요'라고 지정하면
AI가 이를 이해하고
자동으로 실행해서 결과를 텍스트로 생성합니다.
보통은 이런 기능을
직접 설정해야 하는데,
브라우저 베이스 같은 플랫폼을 사용하면 됩니다.
브라우저 베이스는 정말 훌륭한데,
여러 영상의 스폰서이기도 했죠.
원격 서버리스 브라우저를 위한
완전한 헤드리스 도구를 만들었습니다.
이를 통해 AI 워커가 웹을 탐색할 수 있게 해주죠.
따라서 Claude나 OpenAI용 검색 기능을
직접 만들고 싶다면,
브라우저 베이스를 이용해 도구를 만들어
설명을 추가하면 됩니다.
하지만 구글은 이미 내장되어 있죠.
이건 당연한 일입니다.
구글이 세계 최고의 검색 기업인데
자사 모델에 검색 기능이 없다면
이상하지 않겠어요?
사실 이게 제가
Gemini를 자세히 보기 시작한
주된 이유입니다.
검색 도구 시스템을
직접 구축하는 데 시간을 쓰고 싶지 않았거든요.
많은 사람들이 T3 채팅에서
검색 기능을 원했는데,
구글 모델에서는 기능 플래그처럼
쉽게 켤 수 있습니다.
저는 지금 Gemini 모델을 배포하고 있어서
순다르가 트위터에서 하는 말에
주목하고 있습니다.
팔로우 버튼도 눌렀죠.
이제 이게 제 비즈니스의 일부니까요.
Claude의 가격 인하는 정말 예상 못했습니다.
이렇게 새로운 것을 내놓고
더 저렴한 가격을 제시하다니요.
월 8달러짜리 AI 채팅 앱이 된 거죠.
LLM은 Ask Jeeves를 부활시키기에
완벽한 계기가 됐을 텐데, Jeeves만이 아니라
여러분 Akinator 기억하시나요?
원조 AI였죠. 여러분이 생각하는 인물이나
사물을 맞추기 위해
20개의 질문을 하면서
가능성을 좁혀나갔죠.
어릴 때 저는 이거에
완전히 빠져있었는데,
이제는 완전히 새로운 세상이 됐네요.
이렇게 저렴해진 큰 이유는
새로운 컴퓨팅 기술 때문일 것 같습니다.
구글이 자체 프로세서 개발에
정말 많은 노력을 기울였죠. 처음에는 양자 컴퓨팅용으로,
그리고 폰 성능 개선을 위해서였죠.
퀄컴에 대해 길게 이야기할 수 있지만
여러분을 위해 그만두겠습니다.
그들이 만들고 있다는 것만 아시면 됩니다.
많은 기업들의 상황을 더 어렵게 만들고 있죠.
애플처럼 자체 칩을 만들고 싶어 하는 것은 이해가 됩니다.
하지만 그들은
텐서 워크플로우와 AI를 위한
고성능 컴퓨팅 칩에 집중했습니다.
제 추측으로는 이 칩들이
충분히 좋아져서
훨씬 더 빠르고 저렴하게 작업을 수행할 수 있게 되었습니다.
이전 세대보다 3배 빠른 추론 처리 속도와
4배 향상된 학습 성능,
에너지 효율성은 7% 개선되었습니다.
따라서 비용도 많이 절감되었죠.
이는 매우 합리적인 결과입니다.
이것이 바로 현재 구글과 경쟁하기 어려운 이유입니다.
구글은 모델 학습에 필요한
모든 데이터를 보유하고 있고,
모델을 설계하고 학습시킬 수 있는
모든 엔지니어와 연구팀을 보유하고 있으며,
자체 제작한 엄청난 컴퓨팅 파워로
이 모든 것을 더 잘 수행할 수 있습니다.
Grock과 같은 회사는
(우리가 정말 좋아하는 회사인데),
Grock은 협업하기에 정말 좋았습니다.
우리는 초고속 모델을 위해
증류된 R1 모델과
Llama 모델에 Grock을 사용하고 있습니다.
Grock이 너무 빨라서
T3 채팅의 스크롤 작동 방식을 변경해야 했을 정도입니다.
여기서 저는 Llama를 선택했는데,
Advent of Code 2021의 8일차를... 아니 좀 더 쉬운
5일차를 Rust로 풀어보겠습니다.
Python, JS 또는 JavaScript,
그리고 C++로도 시도해보겠습니다.
여러 언어로 시도하는 이유는
여러분들이 Grock이 얼마나 빠른지
직접 확인하셔야 하기 때문입니다. 따라가기도 힘들 정도로 빠르죠.
참고로 이것은 Q로 끝나는 Grock이지
K로 끝나는 Grock이 아닙니다.
K로 끝나는 Grock은
일론의 지갑하고만 경쟁하고 있죠. Q로 끝나는 Grock은
모델 학습이 아닌 추론을 위한
매우 빠른 칩을 만드는 회사입니다.
모델의 응답을 생성하기 위한 칩이죠.
그들의 칩 아키텍처는
현재로서는 Llama에서만 잘 작동하도록 설계되어 있어서
제공하는 거의 모든 모델이
Llama 기반입니다. 스크롤을 내려보시면
많은 Llama 모델들을 보실 수 있습니다.
Mistral도 어느 정도 작동하고
OpenAI의 Whisper도 잘 작동합니다.
오디오 모델인데, 그들은
다른 곳들보다 압도적으로 빠릅니다.
이는 칩이 이러한 특정 모델들의
작동 방식에 최적화되어 있기 때문입니다.
그래서 이런 엄청난 수치가 나오는 거죠.
OpenAI API의 공식 GPT-4가
초당 70 토큰을 처리하는 반면
여기 있는 여러 모델들은
초당 3,000 토큰을 넘습니다. 하지만 한계도 있죠.
입력 크기가 많이 제한되어 있어서
대부분 32k 컨텍스트만 처리 가능하고
일부는 그보다도 적습니다.
컨텍스트가 늘어나면 속도가 저하되고
가격 책정도 매우 합리적입니다.
이렇게 빠른 모델들의 경우에는요.
하지만 더 느리고 토큰 수가 많으며
컨텍스트 윈도우가 큰 모델들은
일반적인 가격대를 보입니다.
여기엔 여러 이유가 있는데
가장 큰 이유는 모델 자체에 대한
통제력이 거의 없다는 점입니다.
다른 곳에서 만든 모델을 가져와서
가격을 책정하고 자사의 칩에서
잘 작동하기를 바랄 수밖에 없죠.
Google은 그런 문제가 없습니다.
모든 부분을 다 소유하고 있기 때문이죠.
모든 데이터를 가지고 있고,
모든 모델 개발을 소유하고 있으며,
실행에 필요한 모든 CPU와 아키텍처를 보유하고 있습니다.
이러한 동기화가 바로
제 아이폰이 뛰어난 제품인 이유입니다.
아이폰의 하드웨어, 칩셋,
소프트웨어와 다른 모든 것이
애플이 설계했기 때문이죠.
이런 통합이 더 빠른 발전을 가능하게 하고
다른 누구도 따라올 수 없는 이점을 만듭니다.
좀 이상하게 들릴 수 있지만,
Google이 AI 분야에서
Apple과 같은 위치에 있는 것 같습니다.
모든 것을 하나로 통합할 수 있는
최악의 대시보드를 가지고 있지만,
인터페이스와의 상호작용이 얼마나 불편한지
제대로 표현할 수가 없습니다.
Google Cloud 제품들, Vertex Studio,
새로운 AI Studio는
실제로 꽤 괜찮고
작업하기도 좋습니다. Google은
여기서 승리할 진정한 기회가 있고,
저는 그것이 실현되기를 진심으로 희망합니다.
가격, 개발자 경험, 품질,
그리고 모델의 성능에서
더 많은 경쟁이 필요한데,
현재 Google만이
이 모든 분야에서 싸우고 있습니다.
단, Vertex는 빨리 중단해야 할 것 같네요.
채팅에서 나온 우려사항 중에,
Google의 SDK가 사용하기 불편하다는 점 때문에
개발자들이 5배 비싼 옵션을
순전히 편의성을 위해 선택할 것이라는 의견이 있습니다.
동의하지만, API 키만 받으면
Google 시스템을 더 이상 건드릴 필요가 없습니다.
API 키를 받는 과정이
우스꽝스러울 정도로 어렵다는 건 인정합니다.
Vertex에서는 실제로
전통적인 API 키를 받을 수 없지만,
새로운 AI Studio는 그렇게 나쁘지 않습니다.
Studio에서 API 키를 받으면
설정하는 것이 어렵지 않습니다.
Vercel의 AISK나
Open Router 프로젝트 같은 래퍼를 사용하면
두 가지 모두 정말 훌륭한데,
키만 있으면 연결이 매우 쉽습니다.
AISK는 다양한 제공업체를
쉽게 추가할 수 있게 해줍니다.
여기 프로덕션에 있는
모든 모델이 포함된 실제 파일입니다.
현재 사용 중인 모든 것에 대해
AISK 제공자를 가져온 다음
사용하고자 하는 모델을 호출하여 정의합니다.
그리고 환경 변수만
제대로 설정되어 있다면
(지금은 그 파일을 열지 않겠습니다)
바로 작동하고, 이 두 모델을 추가하는 것은
여기에 추가하고
UI에 표시되도록 설정하기만 하면 됩니다.
현재 우리 코드베이스에는
Google을 위한 특별한 처리가 없습니다.
Vertex를 설정할 때는 많은
이상한 작업들을 해야 했지만,
Gemini나 AI Studio에서는
그럴 필요가 없습니다.
AISK에서 Google Provider를 가져와서
호출하기만 하면 끝입니다.
Vercel이 Google의 개발자 경험 문제를
이렇게 잘 해결하고 있다는 게 재미있네요.
Vertex의 문제를 해결하려고 했는데,
Vertex의 한 가지 문제점은
환경 변수를 그냥 넣을 수가 없고
클라이언트 자격 증명과 private key가 특별히
필요한데, 이상적으로는 JSON 파일 형식으로
제공해야 하며 이는 Google의 이상한
인증 시스템에 의해
자동으로 업데이트됩니다. IAM보다
10배는 더 복잡하고 작동 방식을
설명하는 문서도 제대로 없어요. 제가
하루를 써서 인증을 구현했다고 했는데
농담이 아닙니다. 제가 최근에
Google 스타트업 팀과
많은 시간을 보내고 있는 이유가 있죠.
그들도 저만큼이나 충격을 받았거든요.
이래서는 안 되는데, 하지만
Vertex는 최대한 피하고
대신 표준 Google Generative AI인
Google AI Studio를 사용하면
문제없이 잘 됩니다. 이게 만약
오픈 모델이었다면 세상을
완전히 바꿔놓았을 겁니다. 하지만
그들의 어마어마한 자금이 없었다면
잘 작동하지도 않았겠죠.
이건 정말 굉장히 멋진 것 같고
여러분의 생각이 궁금합니다.
T3 chat에서 한번 시도해보세요. 무료로
이용할 수 있고, 모서리에 있는 작은 버튼만
클릭하면 됩니다. Flash를 사용하고
초고속 Flashlight 모델을 보고 싶다면
실험적 모델 아래에
숨겨져 있습니다. 로그인하면
많은 메시지를 받을 수 있고
더 많은 기능을 원한다면
월 8달러면 됩니다. 이게
전부인데, Google이 이렇게 빨리
따라잡은 것이 아직도 믿기지 않고
이로 인해 다른 것들도 발전하길 기대합니다.
바라건대 이로 인해
OpenAI와 Anthropic이
가격을 낮추고 AI 기술이
모두에게 더 접근하기 쉬워질 것입니다.
다른 회사들이 Google이 제시한
가격보다 10배에서 100배나 더 비쌀 때
진정한 변화가 필요한 시점입니다.
Google이 이런 변화를 만들어낼 줄은
전혀 예상치 못했는데,
점점 더 그렇게 되어가는 것 같네요.
여러분의 생각을 들려주세요.
다음에 또 만나요, 안녕히 계세요!