[00:00]
GPT-4가 업데이트되었는데
[00:03]
이 새로운 업데이트가 정말 대단해요. 샘 알트만이
[00:07]
새로운 버전의 GPT-4에 대해 트윗했는데
[00:10]
특히 코딩 지시사항 수행과
[00:12]
자유도가 크게 향상되었다고 합니다.
[00:16]
새로운 '언힌지 모드'가 추가되었는데
[00:18]
'언힌지 모드 활성화'를 요청하면
[00:21]
이 모드는 Grock에서 영감을 받은 것 같고
[00:24]
마치 취한 GPT 같은 느낌입니다. 또한
[00:28]
챗봇 아레나 리더보드에서
[00:30]
4-5위에서 2위로 올라서며
[00:33]
큰 성능 향상을 보여주었죠.
[00:36]
이는 어떤 모델에서든 엄청난 발전이에요.
[00:40]
전반적으로 이제 Gemini 2.5 Pro에 이어
[00:43]
두 번째로 좋은 모델이 되었습니다.
[00:47]
언힌지 모드를 활성화하면
[00:49]
필터링이 많이 줄어들고
[00:51]
요청하면 다양한
[00:53]
언어 표현을 사용합니다. 예시는
[00:56]
보여드리지 않겠지만 직접 테스트해보세요.
[00:58]
이는 OpenAI의 기존 스타일과는 매우 다릅니다.
[01:02]
제가 개인적으로
[01:04]
관심 있는 부분은 코딩 능력인데요.
[01:07]
OpenAI에 따르면 코딩 문제 해결
[01:10]
능력이 향상되었다고 합니다.
[01:12]
그래서 꼭 테스트해보고 싶고
[01:15]
필터링 완화는 이미지 생성
[01:17]
부분에도 적용된 것 같아요.
[01:20]
샘이 언급했듯이 이전보다
[01:22]
자유도가 많이 높아졌습니다.
[01:24]
물론 노골적인 콘텐츠에 대해서는
[01:27]
여전히 필터링이 있는데
[01:30]
이는 좋은 일이죠. 콘텐츠 필터가
[01:33]
여전히 있지만
[01:36]
이 모델은 코딩에
[01:38]
특히 뛰어나다고 하니
[01:40]
몇 가지 코딩 프롬프트로 테스트해보겠습니다.
[01:42]
최근에 Gemini 3.5에
[01:44]
사용했던 프롬프트들인데요.
[01:48]
원래는 Claude와 Gemini 2.5를 비교하려 했지만
[01:51]
이 모델도 함께
[01:53]
테스트해보려고 합니다. 첫 번째 프롬프트는
[01:55]
자바스크립트로 실제 물리 효과가 적용된
[01:58]
낙하하는 글자 애니메이션을 만드는 것입니다.
[02:00]
여러 가지 요구사항이 있는데
[02:02]
화면 상단에서 무작위로 나타나고
[02:04]
크기가 다양해야 하며, 지구 중력의 영향을 받고
[02:06]
실제 글자 모양을 기반으로
[02:09]
충돌 감지가 되어야 합니다.
[02:12]
다른 글자, 바닥, 화면 경계와 상호작용하고
[02:15]
물과 비슷한 밀도 속성을 가지며
[02:18]
화면 크기가 동적으로 변할 때도 대응하고
[02:20]
어두운 배경에 표시되어야 합니다.
[02:24]
모든 것이 하나의 HTML 파일에
[02:26]
들어가야 하죠. 이게 제가
[02:29]
원래 버전에서 사용했던 프롬프트인데
[02:32]
정확한 코드를 제공하지 못했어요.
[02:35]
Gemini 2.5는 작동하는 코드를 제공했는데
[02:38]
이 새로운 GPT-4는 어떨지 봅시다.
[02:42]
캔버스에 대한 접근 권한도 여전히
[02:45]
있는 것 같네요. 정말 좋습니다.
[02:48]
단순히 업데이트된 모델이네요.
[02:51]
GPT가 미리보기를 보여주는데
[02:53]
출력이 어떤지 살펴보죠. 음, 초록색 박스만
[02:56]
보이네요. 글자들이 있는 것 같은데
[03:00]
아마도 초록색 박스로
[03:02]
둘러싸여 있고
[03:04]
글자를 표시하는데도 초록색을
[03:06]
사용하는 것 같네요. 실제로
[03:09]
그게 맞았어요.
[03:10]
코드에서 글자들이
[03:12]
초록색 박스 안에 있냐고 물어보니
[03:15]
물리 엔진 측면에서 각 글자가
[03:17]
matter.body로 표현된 직사각형이라고 하네요.
[03:19]
이게 사용하는 패키지인데,
[03:22]
그래서 내부적으로는 초록색 사각형이고
[03:25]
그 초록색 상자를 숨기는 방법에 대한 코드를 제공했어요.
[03:28]
코드 업데이트를 요청했더니
[03:30]
모든 작업이 완료되었고 초록색 사각형이 숨겨졌다고 하네요.
[03:33]
자, 실제로 작동하는지 한번 볼까요?
[03:36]
좋아요, 글자들이 떨어지는 게 보이네요.
[03:40]
크기도 각각 다르고
[03:42]
충돌 감지도 예상대로 잘 작동하고 있어요.
[03:45]
이거 꽤 멋진데요. 정말 인상적이에요.
[03:48]
자, 이제 크기를 변경하면 어떻게 되는지
[03:51]
한번 살펴보겠습니다.
[03:54]
이것도 잘 작동하네요.
[03:57]
GPT-4가 이 특정 작업을 정말 잘 해냈어요.
[04:01]
다음 테스트는 모델의 창의성과
[04:04]
코딩 능력을 모두 시험해볼 거예요.
[04:05]
이건 구글 팀이 공유한
[04:08]
프롬프트에서 영감을 받았는데요,
[04:09]
프롬프트는 '0부터 9까지의 숫자 키로
[04:13]
채널을 변경할 수 있는 TV를 코딩하라'입니다.
[04:16]
모든 숫자에 대해 아이디어를 제시하고
[04:20]
클래식 TV 채널 장르에서 영감을 받아
[04:22]
흥미로운 애니메이션과
[04:26]
쇼를 보여주고
[04:27]
컨셉이나 콘텐츠에 대한 상세한 애니메이션과
[04:30]
화면에 창의적인 채널명을 표시해야 해요.
[04:34]
그리고 800x800 크기의
[04:36]
p5.js 스케치를 반환해야 합니다.
[04:41]
HTML은 사용하지 않고,
[04:43]
검은 배경에 모든 채널의 콘텐츠가
[04:47]
TV 화면 영역 안에 마스킹되어야 해요.
[04:50]
이 프롬프트에는 매우 구체적인
[04:53]
요구사항들이 있지만,
[04:55]
동시에 모델에게 창의성을 발휘할
[04:58]
여지도 주고 있죠.
[05:01]
지금 이 프롬프트를 Gemini에
[05:04]
사용했을 때, Gemini는 571줄의
[05:07]
코드를 생성했어요.
[05:11]
실행해보면 실제로 작동하는 TV 화면이 보이죠.
[05:16]
보시다시피 채널 번호와
[05:18]
채널 제목이 있고,
[05:22]
1부터 9까지 숫자를 누르면
[05:25]
각 채널이 실제로 변경됩니다.
[05:27]
채널마다 다른 내용을 보여주고
[05:30]
실제 TV 채널에서 영감을 받은 것 같네요.
[05:34]
Gemini가 정말 잘 해냈어요.
[05:36]
이제 같은 프롬프트로 GPT-4도
[05:40]
시도해보고 어떤 결과가 나오는지
[05:43]
보겠습니다. 토큰 수가
[05:46]
꽤 많이 필요할 텐데,
[05:48]
Claude로 시도했을 때는
[05:51]
코드를 완성하기도 전에
[05:53]
토큰이 부족했거든요.
[05:55]
GPT-4가 어떻게 처리하는지 보면 재미있겠네요.
[05:59]
자, 여기 생성된 코드가 있네요.
[06:01]
이걸 복사해서
[06:04]
p5.js 에디터에 붙여넣어 보겠습니다.
[06:08]
지금 코드가 약 200줄 정도네요.
[06:13]
Gemini보다 훨씬 짧은데,
[06:16]
어떻게 작동하는지 볼까요?
[06:18]
뭔가 보이긴 하는데
[06:22]
키를 눌러도 아무 반응이 없고
[06:25]
에러도 몇 개 보이네요.
[06:27]
이 특정 에러를
[06:30]
복사해서
[06:31]
GPT-4가 고칠 수 있는지 확인해보죠.
[06:34]
GPT-4가 수정했다고 하는데,
[06:38]
전체 코드를 다시 달라고 했더니
[06:40]
새로운 코드를 줬어요.
[06:43]
이 전체 코드를 복사해서
[06:45]
이미 실행해봤지만, 한 번 더 붙여넣어 보죠.
[06:48]
여전히 문제가 있네요.
[06:51]
이번엔 'callback is not a function' 에러가 발생했고,
[06:54]
Gemini 2.0 Pro처럼
[06:57]
제대로 된 결과를 내지 못했네요.
[07:01]
한 번에 해결하려고 하는데
[07:04]
한 번 더 시도해보고
[07:06]
어떻게 되는지 확인해볼게요
[07:10]
실수로 에러 대신 코드를 복사했네요
[07:12]
어떻게 되는지 봅시다
[07:15]
기본적으로 지원되지 않아서
[07:16]
클립이 사라졌고 이제
[07:19]
createGraphics와 mask를
[07:22]
제대로 사용하고 있어요
[07:24]
실제로 작동하는지 봅시다
[07:27]
코드를 교체했더니
[07:29]
코드 라인 수가 늘어났네요. 좋아요
[07:32]
뭔가가 보이기 시작하네요
[07:35]
첫 번째 채널이 작동합니다. 튠 블리츠군요
[07:39]
이거 좋네요, 꽤 고무적입니다
[07:42]
자, 스페이스 와이어가 아무것도 보이지 않네요
[07:44]
4번인데 채널 이름을 놓쳤어요
[07:47]
5번에는 뭔가 있는 것 같은데
[07:50]
아마도 같은 색상이네요
[07:52]
6번도 마찬가지고요
[07:55]
6번
[07:57]
좋아요
[07:59]
7번
[08:01]
8, 9, 그리고 이건 0번이었네요. 잘했어요
[08:06]
제미니 2.5 프로보다
[08:08]
더 적은 라인으로 해결했지만
[08:10]
한 번에 되진 않았어요
[08:14]
그래도 정말 인상적이네요
[08:17]
이제 클로드로도
[08:19]
시도해보고 결과를 확인해볼게요
[08:21]
3.57 버전으로 시도해볼 건데
[08:24]
이전에 시도했을 때는
[08:26]
토큰 제한에 걸려서 문제가 있었는데
[08:29]
이번엔 한 번에 완성된 코드를
[08:32]
받을 수 있길 바랍니다
[08:35]
클로드가 작업하는 동안 말씀드리면
[08:37]
API로 사용하고 싶으시다면
[08:39]
GPT4나 latest라는 이름으로 사용하실 수 있어요
[08:43]
나중에 날짜가 포함된 모델 버전이 추가될 예정이지만
[08:46]
현재 모델은
[08:49]
GPT40이나 GPT40 latest로 사용 가능합니다
[08:53]
자, 몇 가지 빠른 테스트를 더 해볼게요
[08:56]
자전거를 타는 펠리컨의
[08:58]
SVG를 만들어달라고 할 건데
[09:00]
이건 정말 좋은 테스트예요
[09:03]
모델의 공간 추론 능력을
[09:04]
평가하기에 좋거든요
[09:07]
SVG 대신 이미지를 만들기 시작했네요
[09:11]
원하던 게 아니긴 하지만
[09:15]
자전거 타는 펠리컨이긴 해요
[09:19]
한 번 더 요청해볼게요
[09:21]
기다리는 동안
[09:23]
클로드를 확인해보니
[09:25]
최대 메시지 길이에 도달해서 멈췄네요
[09:28]
계속하려면 'continue'를
[09:31]
입력하라고 하네요
[09:34]
자 계속해보면
[09:37]
코드가 완성되지 않았어요
[09:39]
여기서 확인할 수 있죠
[09:42]
이래서 긴 컨텍스트를 가진
[09:44]
LLM이 프로그래밍에
[09:47]
중요한 거예요. 현재 클로드는
[09:49]
20만 토큰의 컨텍스트 윈도우를 가지고 있고
[09:52]
50만 토큰 컨텍스트 윈도우를 가진
[09:54]
버전이 곧 출시될 것으로
[09:57]
예상되고 있어요
[09:59]
이건 정말 큰 도움이 될 거예요
[10:01]
자, 이번에는
[10:03]
GPT40이 SVG 코드를 제공했는데
[10:06]
나쁘지 않네요. 펠리컨이
[10:09]
실제로 자전거 위에 있어요
[10:11]
다리는 잘 안 보이지만
[10:14]
자전거 프레임의 일부가 없긴 하지만
[10:17]
전반적으로 나쁘지 않은 결과예요
[10:20]
또 다른 재미있는 테스트로
[10:23]
HTML, CSS, JS로 모던한 랜딩 페이지를 만들어달라고 했는데
[10:26]
모든 것을 단일 HTML 파일이나
[10:28]
하나의 파일로 만들어달라고 했는데
[10:30]
문제가 좀 생겨서
[10:32]
다시 시도해보려고 합니다. 이를 통해
[10:35]
모델이 현대적인 랜딩 페이지를
[10:38]
어떻게 이해하고 있는지 알 수 있죠
[10:40]
대부분의 경우 AI 모델들이 생성하는
[10:43]
랜딩 페이지들은 매우 비슷한 형태를 보입니다
[10:46]
시각적 구성요소나 디자인만
[10:49]
약간의 차이가 있을 뿐
[10:52]
나머지는 거의 동일한 섹션들로 구성되어 있고
[10:54]
제가 보기에는
[10:57]
전형적인 SaaS 랜딩 페이지에서
[11:00]
영감을 받은 것 같네요. 자, 계속 진행하면서
[11:03]
기다리는 동안
[11:05]
Claude가 전체 코드를 생성한 것 같네요
[11:07]
복사해서 결과를 한번 확인해보겠습니다
[11:09]
지금까지 GPT-4의 출력도
[11:12]
마음에 들었는데, 단지 몇 개의 채널에서
[11:15]
채널 이름이 제대로 표시되지 않았던 것만 빼면요
[11:18]
이제 Claude가 생성한 코드를 보면
[11:21]
코드의 길이가
[11:23]
훨씬 더 긴데, 약 천 줄 정도입니다
[11:26]
이게 실제로 작동하는지 확인해보죠
[11:29]
음, 작동하지 않네요
[11:33]
몇 가지 오류가 있는데
[11:35]
일부 함수들을 생성하는 것을
[11:37]
잊은 것 같아서 다시 복사하고
[11:39]
Claude가 어떻게 처리하는지 보겠습니다
[11:42]
Claude의 작업이 끝나기를 기다리는 동안
[11:44]
GPT-4가 생성한 HTML 페이지를 보여드리겠습니다
[11:47]
왠지 두 버전이 있네요
[11:50]
아, 제가 두 번 실행했기 때문이군요
[11:52]
두 번째 버전을 복사해서
[11:55]
랜딩 페이지가 어떻게 생겼는지
[11:57]
한번 확인해보겠습니다
[12:00]
자, 여기 랜딩 페이지가 있는데
[12:02]
전형적인 SaaS 기업의 랜딩 페이지처럼 보이지만
[12:06]
매우 미니멀한 구성이네요
[12:09]
특별한 것이 없고 단 두 개의
[12:11]
섹션만 있는데, 더 많은 컨텍스트를
[12:13]
제공하면 훨씬 더 나은 결과를
[12:16]
만들 수 있을 것 같습니다. 비교를 위해
[12:19]
DeepSeek V3가 생성한 랜딩 페이지를 보면
[12:22]
정확히 같은 프롬프트로 만들었는데
[12:26]
훨씬 더 많은 콘텐츠가 있고
[12:29]
시각적으로도 훨씬 더 보기 좋습니다
[12:33]
사실 대부분의 사람들이 이걸 보면
[12:36]
실제 기업의 완전한 기능을 갖춘 SaaS 웹사이트라고
[12:39]
생각할 것 같네요. DeepSeek V3는
[12:42]
이런 특정 프롬프트에서 정말 좋은 성능을 보여줍니다
[12:44]
Gemini도 꽤 괜찮은 결과를 보여주는데
[12:47]
GPT-4는 아마도 더 자세한 지시가 필요할 것 같네요
[12:50]
Claude에게 다시 한 번 요청했는데
[12:53]
그들이 추가하기 시작한 이 작은 애니메이션이
[12:56]
정말 마음에 듭니다. 꽤 깔끔하네요
[12:59]
하지만 다시 한번 보니
[13:02]
코드가 완성되지 않았네요
[13:04]
계속 진행하라고
[13:06]
한 번 더 요청해야 할 것 같습니다
[13:08]
Claude에게는 좋지 않은 모습이네요
[13:10]
Claude가 완전한 코드를 제공하지 못한 이유는
[13:12]
Claude 3.7의 최대 토큰 수 때문인데
[13:16]
일반 모드에서는 8,000개의 토큰까지 생성 가능하고
[13:20]
확장된 사고 모드에서는
[13:22]
64,000개의 토큰까지
[13:24]
생성할 수 있습니다. 하지만 지금 보니
[13:27]
Claude 3.5 Sonnet이 보이고 사고 버전은 안 보이네요
[13:31]
이 변경이 언제 일어났는지
[13:33]
잘 모르겠네요. 아마도 이제는
[13:35]
자동으로 사고 모드를 사용하도록
[13:38]
결정하는 것 같은데 확실하지 않습니다
[13:40]
여러분도 같은 현상을 보시는지 알려주세요
[13:42]
코딩 능력을 테스트하기 위해
[13:44]
LLM의 테스트를 위한 바이럴 프롬프트를 하나 더 시도해봤는데요
[13:48]
회전하는 육각형을 생성하고
[13:50]
공이 벽면에 튕기도록 하는 것입니다
[13:52]
공이 육각형의 면에 부딪혀 튕기는 코드를 만들어보죠
[13:56]
여기 생성된 코드가 있네요
[13:58]
이 코드를 복사해서
[14:00]
HTML 에디터로 돌아가
[14:02]
붙여넣고 실행해 보겠습니다
[14:05]
보시다시피 육각형이 회전하고
[14:08]
공이 모서리에 부딪혀 튕기고 있네요
[14:11]
모든 것이 잘 작동하는 것 같습니다
[14:14]
다만 공이 실제 중력 효과보다
[14:16]
더 많이 튀는 것 같긴 하네요
[14:19]
그리고 제가 항상 하는 것처럼
[14:21]
이걸 좀 더 오래 실행해 보려고 합니다
[14:24]
보통 제가 경험한 바로는
[14:26]
LLM들이 처음에는 잘 작동하다가
[14:29]
공이 잘 튕기다가도
[14:31]
시간이 지나면 육각형에서 벗어나
[14:34]
굴러떨어지곤 했거든요
[14:37]
하지만 여기서는 그런 현상이 보이지 않네요
[14:39]
물리 법칙도 꽤 잘 구현된 것 같습니다
[14:43]
면에 부딪힐 때마다
[14:46]
올바른 방향으로 튕겨나가고 있어요
[14:49]
모든 게 잘 작동하는 것 같네요
[14:51]
사실 GPT-4가 이 프롬프트를 봤을 가능성이 높습니다
[14:55]
최근에 업데이트되었고 이게 바이럴로 퍼졌기 때문이죠
[14:58]
이런 테스트가 viral하게 퍼졌거든요
[15:01]
새로운 기능에서는
[15:03]
복잡한 기술적 문제와
[15:06]
코딩 문제 해결 능력 외에도
[15:08]
직관력과 창의성이 향상되었다고 하고
[15:11]
이모지 사용도 줄었다고 하네요
[15:14]
그래서 이 모델의 직관력이나
[15:18]
추론 능력을 시험해보겠습니다
[15:20]
이를 위해
[15:21]
misguided attention 레포로 가서
[15:25]
수정된 트롤리 문제를
[15:27]
테스트해보도록 하겠습니다
[15:31]
바로 눈에 띄는 것은
[15:33]
톤의 변화입니다. '아, 고전적인 트롤리 문제군요'
[15:37]
일반적인 철학이 기차 참사와 만나는
[15:39]
레버를 당기면 다섯 명을 구하기 위해
[15:42]
한 명에게 직접적인 해를 끼치는 거고
[15:44]
레버를 당기지 않으면 다섯 명의 죽음을
[15:47]
수동적으로 허용하는 것이 됩니다
[15:50]
이것을 보면 우리가 도입한 변화를
[15:52]
고려하지 않고 전통적인 트롤리 문제로
[15:55]
돌아가는 것 같아요
[15:57]
하지만 톤이 기존 GPT-4와는
[16:01]
매우 다릅니다
[16:03]
마지막에는 단순히
[16:06]
'결과를 최대화하는 것과 도덕적 원칙을
[16:09]
존중하는 것 중 어느 것을 선택하시겠습니까?
[16:12]
직관적으로 어떠신가요, 레버를 당기시겠습니까?'
[16:15]
라고 제게 묻더군요
[16:17]
그래서 제가 다섯 명에 대해
[16:19]
프롬프트에서 특이한 점을 발견했냐고 물었더니
[16:22]
트롤리가 이미 죽은
[16:24]
다섯 명을 향해 달려간다고 했다면서
[16:27]
이것이 일반적인 트롤리 문제를 완전히 뒤집었다고 하더군요
[16:31]
이미 죽은 사람들이라면
[16:34]
레버를 당겨 한 명의 생명을 앗아가는 것은
[16:36]
윤리적으로 전혀 말이 안 된다고 했습니다
[16:39]
생명을 구하는 것도 아닌데 한 명을 죽이는 셈이라고요
[16:42]
아주 좋은 반전이라며, 이런 상황에서는
[16:45]
전체적인 계산이 달라진다고 했어요
[16:47]
이 버전에서 올바른 선택은
[16:49]
확실히 레버를 당기지 않는 것이라고 했죠
[16:52]
그리고는 제가 이걸 일부러
[16:54]
눈치챌 수 있는지 테스트한 거냐고 물었고
[16:57]
이모지도 하나 넣었더니
[17:00]
톤은 확실히 다르지만
[17:01]
이모지 사용이 줄었다는 건 모르겠네요
[17:04]
그래서 수정된 슈뢰딩거의 고양이 역설을 입력했습니다
[17:08]
고양이가 이미 죽어있는
[17:10]
같은 채팅 세션에서 이렇게 답변했어요.
[17:13]
알겠습니다. 제가 이해했어요.
[17:15]
이건 유명한 슈뢰딩거의 고양이 실험의 변형이군요.
[17:18]
양자역학의 사고 실험인데,
[17:19]
고양이가 이미 죽어있다는 걸 인식했네요.
[17:22]
그래서 상자를 열었을 때 고양이가 살아있을 확률은
[17:24]
0이라는 거죠.
[17:27]
같은 프롬프트를 완전히 새로운 채팅 세션에서도 시도해봤는데
[17:30]
여기서도 마찬가지로
[17:33]
고양이가 이미 죽어있는 상태로 상자에 들어갔기 때문에
[17:36]
이 설정은 결과와 무관하다고 했어요.
[17:38]
하루 뒤에 고양이가 살아있을 확률은
[17:40]
0이라는 거죠.
[17:42]
이건 고전적인 슈뢰딩거의 고양이 실험의
[17:45]
재미있는 변형이에요.
[17:46]
이제 AI가 기회만 있으면
[17:50]
이모지를 사용하려고 시도하고 있어요.
[17:53]
그리고 톤이 매우 다른데,
[17:56]
'하지만 당신의 버전에서는
[17:58]
불쌍한 고양이가 처음부터 죽어있네요'라고 말하죠.
[18:00]
확실히 Claude의 대화 스타일을 모방하려고 하는 것 같아요.
[18:03]
이런 톤 변화 외에도
[18:06]
이미지 생성 기능도
[18:08]
OpenAI나 GPT-4에 비해
[18:11]
훨씬 더 유연하고 자유로워진 것 같아요.
[18:14]
OpenAI가 일부 안전 규칙을 변경하고 있는데,
[18:18]
GPT-4 이미지 생성 블로그 포스트에서
[18:21]
언급했던 일부 규칙들이
[18:23]
여전히 남아있어요.
[18:26]
그래서 안전 규칙 위반 여부에 따라
[18:28]
일부 콘텐츠가 차단될 수 있죠.
[18:33]
OpenAI의 이번 업데이트는
[18:36]
매우 흥미로운 발전이에요.
[18:40]
앞으로 더 자세히 테스트해볼 예정인데,
[18:42]
특히 코딩 기능을
[18:44]
더 철저히 테스트해볼 거예요.
[18:46]
그 영상도 기대해주세요.
[18:49]
벌써 이 모델의 글쓰기 스타일이 마음에 드는데,
[18:52]
GPT-4.5의 톤을 가지고 있어요.
[18:58]
GPT-4.5와 매우 비슷한 톤을 보이고,
[19:00]
일반적인 GPT-4처럼 느껴지지는 않네요.
[19:04]
여러분들의 새 모델 사용 경험과
[19:07]
특별히 눈에 띄는 점이 있다면
[19:10]
알려주시면 좋겠어요.
[19:12]
이 영상이 도움이 되었길 바랍니다.
[19:14]
시청해주셔서 감사하고,
[19:17]
다음 영상에서 만나요!