[00:00]
잠시 시간을 내서
[00:01]
정말 대단한 일이 일어나고 있다는 걸
[00:03]
인정해야 합니다. 오픈웨이트 모델들이 오픈 라우터에서
[00:07]
프로그래밍 부문 최다 사용 상위 10위 안에
[00:10]
들어가 있다는 것 말이에요. 8월 11일 기준으로
[00:12]
Qwen3 Coder가 2위를 차지했습니다.
[00:15]
정말 훌륭한 모델이에요. 제가
[00:16]
이 모델에 대해 항상 극찬해왔거든요.
[00:18]
저를 조금이라도 팔로우하신다면
[00:20]
제가 얼마나 이 모델을 좋아하는지 아실 겁니다.
[00:24]
하지만 이 모델을 너무 좋아한 나머지
[00:26]
GLM4.5를 조금 무시해왔는데,
[00:29]
이것도 상당히 괜찮게 상위 10위 안에
[00:31]
들어가 있습니다. 특히 이 리더보드 구성을
[00:34]
보시면 9위를 차지하고 있고,
[00:37]
클릭해보면 실제로 GLM4.5를
[00:40]
사용하는 앱들이 많이 있습니다.
[00:41]
킬로 코드가 여전히 1위이고, 루트 코드,
[00:44]
클라이언트, 오픈 코드 등이 있죠.
[00:47]
오늘 저는 제 프로덕션 코드베이스에서
[00:49]
하는 모든 작업에 GLM4.5만 사용해보기로 했습니다.
[00:52]
결과적으로 정말 훌륭한 하루를 보냈어요.
[00:54]
새로운 모델을 처음 사용하고 싶을 때는
[00:58]
충분히 많이 써보는 편입니다.
[01:00]
만약 다른 모델로 갈아타고 싶은
[01:02]
충동을 느끼거나 너무 느려서
[01:05]
또는 도구 호출 실패가 발생해서
[01:08]
좌절하지 않는다면 매우 만족한다는 뜻이죠.
[01:11]
GLM4.5는 오늘 제가 한 작업에서
[01:12]
정말 훌륭했습니다. 제가 실제로
[01:14]
앱에서 구축한 몇 가지를 보여드리겠습니다.
[01:17]
하루 종일 미디엄 추론을 사용했습니다.
[01:20]
구성 0.6 프로바이더 Z.AI를
[01:22]
직접 선택했습니다. 실제로
[01:23]
권장 구성이 0.6에서 0.95라는 걸
[01:26]
발견했는데, 사실 제가 발견한 게 아니라
[01:28]
디스코드에서 누군가가 보내준 겁니다.
[01:29]
보내주신 분께 감사드리고 싶어요.
[01:31]
이 모델의 열렬한 팬이시더라고요.
[01:32]
저를 밀어붙여서 오늘 하루 종일
[01:34]
실제로 사용해보게 해주셨어요.
[01:36]
정말 감사합니다. 하지만 몇 가지
[01:38]
문제점이 있습니다. 가장 눈에 띄는 건
[01:40]
여기 레이저 포인터로 가리키면, 바로 이
[01:45]
컨텍스트 윈도우입니다. 131,000은
[01:49]
코딩 관련 작업에는 정말 매우
[01:51]
빡빡합니다. 그래서 작업을 정말
[01:53]
작게 유지해야 하고, 여러 파일에
[01:55]
걸쳐서 하면 안 되죠. 큰 파일도 안 되고,
[01:58]
큰 리팩토링도 안 됩니다.
[01:59]
하지만 속도는 좋고 지연시간도
[02:01]
꽤 괜찮고 가격도 매우 매우
[02:05]
합리적입니다. 하지만 이 컨텍스트
[02:07]
윈도우 때문에 이 모델이 제가
[02:09]
즐겨 사용함에도 불구하고, 정말로
[02:12]
사용하는 걸 즐김에도 불구하고,
[02:15]
더 큰 범위의 작업에는 사용할 수 없게
[02:16]
만드는 것 같아요. 오늘 이 문제를
[02:19]
해결하기 위해 루트 코드에서 설정한
[02:20]
몇 가지 설정에 대해 말씀드리겠지만,
[02:23]
이걸 염두에 두는 게 중요하다고 생각해요.
[02:26]
여기 몇 가지 통계가 있습니다. 오늘
[02:28]
21번 커밋했고, 27개 파일을 변경했으며,
[02:31]
새 파일은 하나였습니다. 주로
[02:34]
기존 코드 작업을 했죠. 830줄을
[02:37]
추가하고 63줄을 삭제해서
[02:38]
순증 227줄이었습니다. 앞으로
[02:41]
작업할 새로운 것들을 많이
[02:42]
테스트해봤는데, 모두 GLM4.5로 했습니다.
[02:45]
하지만 이것들은 제가 실제로
[02:47]
개발 브랜치에 한 프로덕션 커밋들이에요.
[02:49]
사실 아직 프로덕션에 들어가지는 않았고,
[02:51]
현재 개발 단계에 있습니다.
[02:52]
제 모든 변경사항을 AI가 요약해줬어요.
[02:55]
이런 식으로 보시면 이것들은
[02:56]
텍스트 스트리밍 시스템에 버그가 있었어요.
[02:59]
그래서 그 작업을 했습니다.
[03:00]
UI 관련해서 몇 가지 작은 수정들이 있었고요.
[03:03]
더 큰 작업이 또 하나 있었어요.
[03:05]
이메일 에디터 개선 작업이었는데,
[03:08]
일반적으로는 작은 버그 수정들이었어요.
[03:12]
UI 작업이 많았고, 백엔드 쪽 작업도 조금 있었는데,
[03:14]
정말 잘 처리해냈어요.
[03:17]
사실, 본격적으로 들어가기 전에
[03:19]
전반적인 생각을 좀 더 말씀드릴게요.
[03:21]
정말 사용하기 편했어요.
[03:23]
도구 오류는 정말 미미했고요.
[03:25]
하루 종일 세 번 정도만 있었지만,
[03:27]
예상보다 비쌌어요.
[03:29]
그래서, 전체적으로
[03:31]
얼마나 썼는지 보여드릴게요.
[03:33]
결국 3천130만 토큰을 사용했어요.
[03:35]
이건 여러 날에 걸쳐서 사용한 거고요.
[03:38]
어느 시점에서는
[03:40]
오늘 하루에만 1천30만 토큰 정도였고
[03:44]
이전에는 30만 토큰 정도였어요.
[03:47]
그러니까 오늘 이 모델로
[03:50]
3천만 토큰 정도 사용한 것 같아요.
[03:52]
정말 많은 토큰이고,
[03:54]
예상보다 훨씬 많았어요.
[03:56]
약 19달러를 썼습니다.
[03:59]
시간대 문제가 좀 있는데
[04:01]
이 2달러 93센트는
[04:03]
시간대가 바뀔 때 생긴 거예요.
[04:06]
계속 작업하고 있었는데,
[04:07]
원래는 다 합쳐져 있었어요.
[04:11]
어쨌든, 꽤 비싸죠?
[04:12]
코딩 작업에 하루에 18-19달러씩 쓴다면
[04:15]
한 달에 30일 한다고 치고
[04:18]
아니, 20-25일 정도만 해도
[04:20]
꽤 비싸져요.
[04:23]
염두에 둘 점이고
[04:25]
Claude Code 같은 게
[04:27]
얼마나 가성비 좋은지 보여주네요.
[04:30]
이건 비용은 훨씬 적고
[04:31]
컨텍스트 윈도우도 낮은데도
[04:33]
더 많은 돈을 쓰고 있어요.
[04:35]
Claude Code만 썼다면 쓸 돈보다
[04:37]
말이에요. 하지만 동시에 좋은 모델이에요.
[04:42]
정말 좋은 모델입니다.
[04:43]
채팅을 정말 짧게 유지할 수 있다면요.
[04:47]
재압축되지 않게 하고
[04:48]
체인을 너무 길게 이어가지 않으면
[04:51]
개별 채팅 스레드를
[04:53]
1달러 이하로 유지할 수 있어요.
[04:55]
하지만 보시다시피 21개 커밋을 했고
[04:57]
오늘 정말 많은 코딩을 했어요.
[04:59]
실제로 몇 가지
[05:01]
지금 생각해보고 있는 건은
[05:02]
행간을 얼마나 잘 읽는지예요.
[05:04]
사실 어떤 티켓을 받았는데
[05:07]
잘 작성되지 않은 티켓이었어요.
[05:10]
솔직히 제 생각엔
[05:11]
뭘 원하는지 잘 모르겠더라고요.
[05:13]
그냥 GLM4.5에게 줬는데
[05:15]
제가 원하는 걸 알아냈어요.
[05:17]
그리고 PM, 프로덕트 담당자에게 물어보니
[05:19]
"완벽해"라고 하더라고요.
[05:20]
인간의 언어를
[05:23]
실제 구축해야 할 것으로
[05:25]
정말 잘 번역했어요.
[05:26]
미디엄 추론 모드를 사용했는데,
[05:28]
이전에는
[05:31]
일부 평가에서 낮은 추론을 사용했던 것 같아요.
[05:32]
미디엄 추론으로 올렸는데
[05:34]
정말 잘했어요.
[05:37]
다른 AI 코딩 도구들에서도
[05:39]
시도해봤고요. Open Router 차트를 보면
[05:42]
사용 가능하다고 나와 있어요.
[05:46]
클라이언트에서 사용 가능하다고 되어 있어요. 하지만
[05:48]
이게 문제라고 생각해요. 여기 클라이언트 예시가 있는데
[05:50]
결국 클라이언트가
[05:53]
그냥 작동을 멈춰버려요. 이런 일이
[05:55]
저한테 많이 일어났어요.
[05:56]
컨텍스트 처리를 정말 못해요. 실제로
[05:59]
컨텍스트가 98.3K로만 들어왔는데
[06:01]
프로바이더 중 하나에서, 제가
[06:03]
실제로는 선택할 수 없었어요.
[06:05]
가장 적은 컨텍스트를 가진 프로바이더를 선택했거든요.
[06:08]
그래서 전혀 이상적이지 않았어요.
[06:09]
이걸 조금 옮겨서 읽기 쉽게 만들어볼게요.
[06:13]
오픈 코드에서는 사용 가능해요.
[06:15]
실제로 테스트해봤는데 잘 작동해요.
[06:17]
하지만 여전히 설정이 필요해요.
[06:19]
앞서 말했듯이
[06:20]
오픈 코드.json 파일에서 말이죠.
[06:22]
클라이언트에서는 그걸 할 수 없어요.
[06:25]
다른 것들도 어떻게 하는지
[06:27]
정확히 모르겠어요.
[06:28]
오늘 X에 포스트를 올렸는데
[06:30]
이런 설정들을
[06:32]
표준화해야 한다는 내용이었어요.
[06:34]
많은 사람들이 이런 것들이
[06:35]
무엇인지 모른다는 걸 알지만
[06:37]
제 설정이 담긴 JSON 파일을 떨어뜨려서
[06:40]
제가 이미 시간을 들여
[06:41]
파악한 내용을
[06:42]
모든 사람과 공유할 수 있거나
[06:45]
다른 사람에게서 가져올 수 있다면
[06:46]
정말 좋을 것 같아요. 왜냐하면
[06:48]
저보다 더 나은 설정을 가진
[06:50]
사람들이 정말 많거든요.
[06:52]
이런 모델 설정들을 공유할 수 있으면 좋겠어요.
[06:55]
온도, top P, top K 같은
[06:57]
모든 걸 우리 모두가 공유해서
[06:59]
실제로 어떤 프로바이더를 사용하든
[07:01]
최고의 성능을 낼 수 있도록 말이죠.
[07:02]
VS Code에는 여기 설정이 있어요.
[07:04]
프롬프트 압축하고 메시지를
[07:07]
컨텍스트 크기에 맞게 변경한다고 되어 있어요.
[07:10]
이게 오늘 제가 실제로 사용할 수 있었던
[07:12]
유일한 방법이었어요. 이걸 체크 해제하면
[07:15]
4-5개 메시지 후에
[07:17]
컨텍스트가 최대치에 도달해요. 이게 핵심이었어요.
[07:20]
하지만 문제는 이 특정
[07:22]
체크박스를 사용함으로써 무엇을 잃고 있는지
[07:24]
모른다는 거예요. 하지만 90% 정도는 잘 작동했어요.
[07:28]
실제로 어떤 채팅은
[07:29]
3달러까지 올라갔는데도 잘 작동했고
[07:33]
컨텍스트 윈도우가 압축되고 있다는 걸
[07:35]
알 수 있었어요. 제 생각에는
[07:37]
속도를 조금 늦추고
[07:39]
지연을 추가하는 것 같아요.
[07:41]
언제 그런 일이 일어나는지 느낄 수 있거든요.
[07:43]
실제로 코드를 파보고
[07:44]
좀 더 이해해보고 싶어요.
[07:45]
하지만 루트 코드를 사용한다면
[07:47]
이걸 사용하세요. 그리고 이게
[07:48]
제가 걱정했던 다른 이유 중 하나이기도 하고
[07:51]
클라이언트가 제 생각만큼
[07:52]
잘 작동하지 않았던 이유예요.
[07:54]
컨텍스트가 부족해지면 그냥 멈춰버렸어요.
[07:56]
실제로 압축과 함께
[07:58]
잘 작동하지 않는 것 같았어요.
[08:00]
여기 제 다른 설정들도
[08:01]
확인해볼 수 있어요.
[08:02]
특히 애니메이션 같은 프론트엔드에서 정말 좋아요.
[08:05]
제 앱으로 넘어가볼게요.
[08:07]
오늘 작업한 몇 가지가 있어요.
[08:09]
이 빈 상태는 아주 사소한 것들이에요.
[08:11]
별로 많지 않지만, 뭔가 보여드릴게요.
[08:14]
뭔가를요.
[08:15]
[08:17]
이 AI에게 이메일 생성을 요청하면
[08:19]
이 멋진 작은 애니메이션을 봐요.
[08:20]
이 테트로미노들이 보이시나요?
[08:23]
실제로 AI가 제작해준 건데
[08:26]
이전의 생각하기 애니메이션보다
[08:29]
훨씬 더 좋아 보여요.
[08:31]
그런데 원래는 이렇게 보이지 않아요.
[08:33]
확장 프로그램으로
[08:34]
다크 모드를 활성화했거든요.
[08:36]
제 제품이 정확히 이렇게 보이는 건 아니지만
[08:38]
눈부시게 하고 싶지 않아서
[08:39]
이렇게 설정해놨어요.
[08:41]
그래도 테트로미노는
[08:41]
여전히 볼 수 있죠. 정말 놀라운 작업을 해냈어요.
[08:44]
오늘 만든 다른 것들도
[08:46]
보여드릴게요.
[08:48]
이건 실시간 얼굴 필터 앱이에요.
[08:49]
여러 모델들을 테스트할 때
[08:51]
자주 사용하는 걸요.
[08:53]
에셋 생성을 요청했는데
[08:54]
기본적으로 카메라가 필요해서
[08:56]
녹화 중이라 OBS에서
[08:58]
카메라를 꺼뒀거든요.
[09:01]
크롬에서 카메라를 켜볼게요.
[09:03]
기본적으로 파티 마스크를 쓸 수 있고
[09:05]
코 위에 무지개를 올릴 수도 있고
[09:08]
왕관을 쓰거나 강아지 코를 달거나
[09:12]
고양이 귀를 달거나 콧수염을 달 수 있어요.
[09:15]
이 모든 걸 AI가 직접 그렸어요.
[09:17]
멋진 안경들도 있고
[09:19]
서로 겹치는 것도 있거나 없을 수도 있고요.
[09:21]
꽤 멋져요.
[09:22]
사진 촬영 기능이 작동하는지
[09:24]
모르겠지만 정말 멋지네요.
[09:26]
이건 정말 정말 빠르게
[09:28]
만들 수 있었던 거예요.
[09:30]
카메라를 꺼볼게요.
[09:31]
지금 제가 우스꽝스럽게 보일 것 같아서요.
[09:33]
그리고 또 만든 게
[09:34]
3D 자율 드론이에요.
[09:37]
이걸 잘 처리하는 모델이 많지 않거든요.
[09:40]
이걸 봤을 때 '오, 진짜 드론이 있네'
[09:41]
했어요.
[09:42]
시뮬레이션 시작을 눌러볼게요.
[09:44]
이거 봐요.
[09:46]
정말 대단하네요.
[09:47]
회피 기능도 변경할 수 있어서
[09:50]
장애물들을 피해가는 방식을
[09:51]
조금씩 바꿀 수 있어요.
[09:53]
센서 범위를 줄여볼게요.
[09:55]
속도도 줄이고
[09:56]
어떻게 되는지 봅시다.
[09:58]
이제 센서 범위가 훨씬 낮아져서
[10:00]
직진으로 가네요.
[10:02]
하지만 전반적으로 정말 훌륭하게 처리했어요.
[10:04]
다른 것도 빨리 보여드릴게요.
[10:07]
참고로 이게 RAI로 생성한 이메일이에요.
[10:10]
꽤 멋져 보이네요.
[10:11]
대부분 플레이스홀더 이미지들이고
[10:13]
그런 것들이에요.
[10:15]
다시 말하지만 원래는 흰색이고
[10:16]
다크 모드로 해놔서
[10:18]
그렇게 좋아 보이지 않아요.
[10:19]
하지만 이 부분을 보세요.
[10:22]
제가 타이핑하면 이렇게
[10:24]
페이드 인/아웃 효과가 나타나죠.
[10:27]
이런 작은 도움말들을 GLM이
[10:29]
오늘 정말 잘 만들어줬어요.
[10:31]
그리고 또 만들어준 멋진 기능 중 하나가
[10:34]
이 검색 기능이에요.
[10:36]
항상 열려있지 않고
[10:38]
위아래로 토글할 수 있어서
[10:40]
UI를 좀 더 깔끔하게 정리할 수 있어요.
[10:42]
하이라이트와 모든 것들이 정말 멋지네요. 솔직히
[10:44]
말씀드리면 저는 UI 전문가가 아니에요.
[10:45]
정말 솔직하게 말씀드릴게요.
[10:47]
전 보통 프론트엔드 개발을
[10:48]
피해왔는데, 지금은
[10:49]
정말 많이 해야 해요. 작은 회사라서
[10:51]
이런 일들을 정말 많이 해야 하거든요. 그런데 GLM45가
[10:54]
이런 종류의 작업에서 정말 놀라운 성과를 보여줬어요.
[10:56]
이제 제 제품의
[10:57]
핵심 부분에 좀 더 들어가보겠습니다.
[10:59]
여기에 와서 보면, 이런
[11:02]
컴포넌트들이 함께 조합되어서
[11:04]
실제로 정말 멋있게 보이는 AI 생성 이메일을
[11:06]
만들어냅니다. 저는
[11:08]
우리가 가지고 있는 설정 중 일부를
[11:10]
옮기고 싶었어요. 그 설정이
[11:11]
해당 컴포넌트가 무엇에 관한 것인지
[11:13]
알려주는 역할을 하는데, 이를 위쪽으로 옮겨서
[11:15]
여기서 활성화/비활성화할 수 있도록 했어요. 첫 번째 시도에서
[11:17]
정말 놀랍고 전반적으로 훌륭한 결과를 보여줬어요.
[11:21]
하지만 앞서 말했듯이, 이 모든 것들은
[11:22]
상대적으로 간단한 작업들이었어요.
[11:24]
웹 커널을 구축하거나
[11:26]
말도 안 되게 복잡하거나 거대한 것 같은
[11:28]
작업은 없었어요. 사실 제가 한 가장 큰
[11:30]
작업도 최대 세 개 파일
[11:32]
정도였어요. 그리고 많은 버그를 수정하고
[11:34]
많은 것들을 바꿔야 했는데
[11:35]
항상 뛰어난 성과를 보여줬어요. 그리고
[11:37]
보시세요, 이 테트로미노들이
[11:39]
정말 멋지지 않나요? 지금까지 본 것 중
[11:40]
가장 멋진 로딩 애니메이션 아닌가요?
[11:42]
어쨌든, 저는 정말 흥미진진해요.
[11:45]
이것이 나온 것에 정말 만족해요.
[11:46]
그리고 이 모델을 설정하기 전에
[11:48]
보여드리고 싶은 것은, 기본 R 코드 설정을
[11:51]
사용했다는 것입니다. 기본적으로
[11:55]
모든 일반적인 설정들, 그냥 기본값으로 한 제 평가 점수는 19,100점인데
[12:00]
사실 이건 좀 좋지 않은 점수예요. 하지만
[12:03]
설정을 적용하면 23,670점을
[12:06]
받는데, 이 정도면 제가 말하는
[12:09]
즐길 만한 범위, 합리적인 범위에
[12:11]
속하기 시작해요, 특히
[12:13]
작은 작업들에서는 더욱 그래요. 그리고
[12:16]
제가 마지막으로 올린 차트와
[12:17]
비교해서 보여드리면, 23,000점대
[12:20]
범위 안에 잘 들어가 있는 것을 볼 수 있어요.
[12:24]
세레브러스를 사용하는 퀸트리 코더와
[12:26]
IDE 에이더 사이에 위치해 있어요.
[12:29]
클로드 소닉 4 수준인가요? 아니에요.
[12:32]
전혀 그 수준은 아니에요. 하지만 좋은 모델이에요.
[12:34]
스타일이 많고, 중간 수준의
[12:37]
추론이 저에게는 정말 잘 작동했어요.
[12:39]
높은 수준의 추론은 많이 테스트해보지 못했는데
[12:40]
만약 테스트해보셨다면
[12:42]
아래 댓글로 어떻게 생각하시는지
[12:44]
알려주시면 정말 좋겠어요. 하지만
[12:45]
정말 작은 작업들을 한다면 정말 정말
[12:48]
저렴하게 사용할 수 있는 모델이에요. 그리고
[12:50]
체인이 너무 길어지지 않도록 해야 해요. 제가
[12:52]
말했듯이, 제 채팅 중 일부는
[12:53]
실제로 몇 달러를 넘어서기도 했는데
[12:56]
이 모델의 전체 가격이 60센트와
[12:57]
2.20달러인 것을 고려하면
[13:00]
정말 놀라운 일이에요. 그리고 실제로
[13:02]
R 코드에 있는 이 설정 때문이라고
[13:04]
생각해요. 이 압축된 프롬프트 메시지가
[13:07]
컨텍스트 크기를 변경해요.
[13:09]
프롬프트 캐싱을 망치고 있다고 생각해요.
[13:11]
왜냐하면 제 캐시 값이 항상
[13:13]
정말 낮거든요. 그래서 이것이
[13:14]
양날의 검이라고 생각해요. 만약
[13:16]
더 긴 작업을 하기 위해
[13:18]
이것을 사용한다면, 프롬프트 캐싱이
[13:20]
제대로 작동하지 않아서 실제로는 더 많은 비용을 지불하게 될 거예요
[13:22]
업니다. 이해가 되시나요? 반면에
[13:24]
만약 제가 뭔가 작은 작업을
[13:26]
131K 컨텍스트 범위 안에서
[13:28]
처리할 수 있다면
[13:30]
괜찮습니다. 20센트 정도면
[13:32]
충분할 것 같네요. 네, 전반적으로
[13:34]
정말 훌륭한 모델입니다. 정말 만족했어요.
[13:37]
오늘 실제로 이 실험을
[13:38]
진행해서 너무 기뻤습니다. 미래에도
[13:40]
이 모델을 다시 사용할 건가요? 100%
[13:42]
다시 사용할 겁니다. 특히 작은 UI
[13:44]
작업에서 멋진 아이디어를 얻기 위해서요.
[13:47]
디자인을 잘하는 모델들이 있어서
[13:49]
정말 좋습니다. GPT-4o를 사용해서
[13:52]
실제로 UI를 만들 수도 있고
[13:54]
GLM-4.5도 사용할 수 있고, Sonnet도 사용할 수 있어요. 다시 말하지만, 저는
[13:57]
UI 전문가도 아니고 디자이너도 아닙니다. 그래서
[13:59]
이런 모델들이 저에게
[14:01]
UI를 제공해주는 것이 정말 마음에 들어요
[14:03]
그중에서 선택하고 각각의 장점을 취해서
[14:04]
실제로 완전히 구현할 수 있거든요.
[14:07]
정말 놀랍습니다. 어쨌든, 이제
[14:08]
마무리할 시간인 것 같네요.
[14:10]
댓글로 알려주세요
[14:11]
GLM-4.5를 시도해본 경험이 있는지요. 오늘 제가
[14:14]
실제로 사용하면서 가진
[14:15]
이런 생각들이 여러분이
[14:17]
GLM-4.5에 대해 생각하는 것과 잘 맞는지요. 그렇지 않다면
[14:20]
한번 시도해보세요. 적어도 UI 작업이나
[14:22]
가벼운 작업에서는요. 실제로
[14:23]
정말 즐겁게 작업할 수 있을 겁니다.
[14:25]
저도 확실히 그랬거든요. 그리고 보시다시피
[14:27]
OpenRouter에서 여전히 많이 사용되고 있어요.
[14:29]
사람들이 적어도 코딩 작업에서
[14:31]
이 모델을 즐겁게 사용하고 있다는 걸 알 수 있죠.
[14:33]
이건 저에게 중요한 부분입니다.
[14:36]
제가 매우 관심 있는 다른 모델은
[14:37]
GLM-4.5 Air입니다. 실제로
[14:39]
일반 모델보다 Air 모델에
[14:42]
더 많은 토큰이 사용되고 있다는 게
[14:44]
흥미롭다고 생각해요. 또한 GLM-4.5는
[14:47]
실제로 비전 모델도 출시했는데
[14:48]
아직 테스트해볼 기회는 없었지만
[14:49]
정말 좋다는 얘기를 들었어요.
[14:51]
좋아요, 이제 마무리하겠습니다.
[14:52]
충분히 길게 얘기했네요.
[14:53]
여러분이 잘 지내고 있기를 바라며
[14:55]
멋진 하루 보내세요. 다음에 만날 때까지
[14:56]
모두 안녕히 계세요.