GPT-5 Codex: 최고의 에이전트형 코딩 모델인가? | MCP 테스트

채널 아이콘
All About AI 구독자 189,000명

요약

OpenAI의 최신 에이전트형 코딩 모델 GPT-5 Codex를 Codeex CLI 환경에서 직접 테스트하며, 기존 Omnihuman AI 아바타 모델을 Cling AI 아바타 모델로 교체하는 과정을 시연합니다. Dynamic Thinking(동적 사고)으로 단순 작업에선 속도를, 복잡 작업에선 더 깊은 추론을 수행하는 성능 변화를 체감합니다. MCP 서버와 Nano Banana를 활용한 워크플로우 자동화로 최종 영상 생성까지 완성하고, Cloud Code와 비교한 Codex의 장단점과 구독 옵션 고민을 공유합니다.

주요 키워드

GPT-5 Codex Codeex CLI Dynamic Thinking MCP 서버 Nano Banana Cloud Code 아바타 생성 워크플로우 자동화

하이라이트

  • 🚀 GPT-5 Codex를 Codeex CLI에서 직접 실행하며 첫인상을 빠르게 확인했습니다.
  • ⚡️ Dynamic Thinking 덕분에 간단한 요청은 초고속으로, 복잡한 요청은 심층적으로 처리하는 반응성을 경험했습니다.
  • 🔄 기존 Omnihuman 모델에서 Cling AI 아바타 모델로 매끄럽게 전환하는 과정을 시연했습니다.
  • 🔧 MCP 서버와 Nano Banana를 연결해 이미지·오디오 분할부터 아바타 영상 생성까지 완전 자동화 워크플로우를 구성했습니다.
  • 🌟 최종 영상에서는 리프 싱크와 배경음을 15% 볼륨으로 삽입해 자연스러운 결과물을 얻었습니다.
  • 📈 Cloud Code 대비 Codeex CLI에서 더욱 직관적이고 일관된 툴 호출 방식을 체험했습니다.
  • 🤔 $20 월 구독(Pro)과 $200 연 구독(OpenAI) 사이에서 최적의 모델·서비스를 선택하는 고민을 공유했습니다.
  • 💡 시장 출시되는 새로운 모델(Gemini Ultra 등)도 자유롭게 시험해 보고 최상의 옵션을 유지하길 권장합니다.

용어 설명

GPT-5 Codex

OpenAI가 출시한 에이전트형 코딩 모델로, 코드 생성과 자동화 작업을 지원합니다.

Codeex CLI

Codex 모델을 터미널 환경에서 제어하고 실행할 수 있게 해 주는 커맨드라인 인터페이스입니다.

Dynamic Thinking(동적 사고)

작업 복잡도에 따라 토큰을 분배해 간단 작업은 빠르게, 복잡 작업은 심층적으로 처리하는 기술입니다.

MCP 서버

멀티클라우드 프로덕션(Multi-Cloud Production) 서버로, AI 기반 영상·오디오 처리 파이프라인을 담당합니다.

Nano Banana

AI 기반 영상 편집 도구로, 주어진 이미지와 프롬프트에 따라 다양한 카메라 앵글의 영상을 생성합니다.

Cloud Code

기존 Codex 이전 환경에서 사용하던 코드 자동화 서비스로, Codex CLI와 비교해 워크플로우 설정 방식을 제공합니다.

ffmpeg

오디오·비디오 파일을 분할·병합·인코딩하는 오픈소스 멀티미디어 처리 도구입니다.

[00:00:00] 도입 및 테스트 목표

이번 주 OpenAI가 공개한 GPT-5 Codex를 Codeex CLI에서 직접 사용해 보겠다는 소개와 영상에서 다룰 주요 목표를 설명합니다. Pro 구독 환경과 기존 설정 문제를 언급하며 모델 전환 의도를 공유합니다.

OpenAI가 이번 주 GPT-5 Codex를 출시했고, 지난 며칠간 Codex CLI에서 테스트한 결과 매우 인상적이었다고 소개합니다.
이전 영상에서 구축한 설정을 변경해보는 짧은 영상을 만들어 새로운 GPT-5 Codex의 첫인상과 장단점을 공유하겠다고 설명합니다.
[00:00:31] 이전 AI 아바타 워크플로우 복습

이전 영상에서 구축한 MCP 서버 기반 아바타 생성 파이프라인을 간단히 보여줍니다. Omnihuman 모델 사용 중 겪은 문제를 언급하며, 새로운 Cling AI 아바타 모델로 교체할 계획을 소개합니다.

Claude Code에서 전환을 고려하거나 ChatGPT 구독자들에게 도움이 될 것이라고 하며, 자신은 월 $20 Pro 버전으로 Codex CLI에 로그인해서 사용한다고 말합니다.
벤치마크도 살펴봤지만 오늘은 직접 실행에 집중하겠다고 하며, SWE Bench에서 Opus 4.1과 비슷한 수준의 좋은 성과를 보였다고 언급합니다.
이전 영상에서 MCP 서버를 사용해 한 장의 이미지로 AI 아바타를 만들어 비디오를 생성하는 설정을 만들었다고 설명합니다.
11 Labs과 Banana 같은 MCP 서버들을 결합해 비디오를 만들었지만, 최근 Omnihuman 모델에 문제가 있어서 새로운 GPT-5 Codex로 Cling 버전으로 전환해보겠다고 합니다.
레포지토리에 들어가서 Codex를 업데이트했고, /mod 명령으로 Codex Medium 모드를 확인한 후 Cling AI 아바타로 전환하는 지시사항을 주겠다고 설명합니다.
[00:02:28] Cling AI 아바타 문서 및 설정

Cling AI 아바타 모델의 API 문서를 로컬 레포지토리에 추가하고, Codeex CLI 설정을 업데이트합니다. 모델 이름 변경과 키 관리 방식을 환경 변수로 처리하는 방법을 제시합니다.

먼저 API 문서를 가져와서 Cling Avatar.md 같은 이름으로 fal에서 가져온 모델 문서를 만들겠다고 계획을 설명합니다.
코덱스를 사용해 모델을 옴니에서 클링 AI로 전환하는 작업을 시작합니다. 같은 제공업체의 API 키를 활용하여 새로운 아바타 모델로의 전환 과정을 테스트해봅니다.
새로운 코덱스의 다이나믹 씽킹 기능에 대한 경험을 공유합니다. 간단한 작업에서는 토큰을 적게 사용하고 복잡한 작업에서는 더 많은 시간을 투자하는 방식으로 속도 개선이 뛰어나다고 평가합니다.
[00:03:24] Dynamic Thinking 성능 평가

Codex의 Dynamic Thinking 기능이 간단 요청에선 빠른 응답을, 복잡 요청에선 심층 추론을 제공하는 방식을 설명합니다. 실제 예시로 간단·복잡 프롬프트 응답 속도 차이를 시연합니다.

아바타 MCP 서버와 옴니 모델의 문제를 해결하기 위해 클링 AI 아바타 모델로 전환하는 테스트를 실행합니다. 코덱스가 클라우드 코드와 달리 모든 도구 호출을 미리 처리하는 특징을 관찰합니다.
[00:04:44] Codeex vs Cloud Code 사용 경험

Codeex CLI가 모든 툴 호출을 사전 처리하는 방식과, 익숙한 Cloud Code의 워크플로우 대비 장단점을 비교합니다. 사용자 경험 관점에서 Codex의 편리함과 개선할 부분을 언급합니다.

모델 전환 작업의 결과를 확인합니다. 옴니휴먼 모델을 클링 모델로 성공적으로 교체하고 동일한 입력 인수들이 유지됨을 확인합니다. MCP 서버 설정에서는 여전히 클라우드 코드의 경험이 더 매끄럽다고 평가합니다.
[00:05:37] 영상 생성 워크플로우 구성

소스 이미지, 18초 뉴스 클립 오디오 준비 과정을 설명하고, ffmpeg로 5초 단위 청크 생성 방식을 시연합니다. 다양한 카메라 앵글(카페, 거리, 차량 안 등) 설정을 위한 목록 관리 방법을 공유합니다.

개발자가 MCP 서버 경험을 평가하며, 클라우드 코드에서는 수월했지만 코덱스에서 더 많은 테스트를 진행하고자 한다고 설명합니다.
자동으로 생성된 문서 변경사항을 확인하며, 마지막 요약 부분이 토큰을 적게 사용하면서도 요점과 참조를 잘 담고 있어 만족스럽다고 평가합니다.
Avatar MCP 서비스의 새로운 모델 구독, API 경로 정리, 통합 가이드 등 업데이트된 기능들을 살펴보며 다음 단계 실행 기능을 활용하고자 합니다.
환경 변수에서 fal 키를 로드하도록 설정을 변경하고, 하드코딩 대신 환경 변수 방식을 선호한다고 설명합니다.
구현 완료 후 새로운 MCP 서버로 전체 워크플로우를 실행해보고, 뉴스 기사에서 가져온 새로운 MP3 파일로 이전과 같은 비디오를 제작할 계획을 세웁니다.
[00:07:29] 워크플로우 실행 및 이미지 결과

작성된 워크플로우를 Codeex CLI로 실행해 Nano Banana로 각 청크별 이미지를 생성합니다. 생성된 샘플 이미지를 확인하며 네 가지 앵글 모두 정상 작동함을 확인합니다.

파일 키가 이미 server/env 파일에 설정되어 있음을 확인하고, 모든 설정이 완료되었으므로 시스템을 재시작하여 테스트를 진행하려고 합니다.
아바타 모델이 실행 중임을 확인하고, 전체 워크플로우를 테스트하기 전에 모델 실행 시간을 고려하여 MCP 서버의 타임아웃을 10분으로 설정합니다.
워크플로우를 확인하며 첫 번째 단계인 소스 이미지 제공 부분을 설명하고, PNG 파일이 사용될 것임을 언급합니다.
나나 바나나 각도에 사용할 PNG 파일과 소스 이미지를 준비합니다. 18초짜리 뉴스 기사 클립을 오디오 파일로 사용하고, ffmpeg으로 5초 청크를 생성합니다.
[00:09:00] 최종 영상 편집 및 배경음 합성

생성된 네 개 MP4 조각을 병합해 최종 영상을 만들고, 11 Labs에서 만든 배경음을 15% 볼륨으로 삽입합니다. 영상과 오디오를 결합한 완성본을 재생해 품질을 검토합니다.

다양한 카메라 앵글 리스트를 사용해 소스 이미지를 처리합니다. 커피숍, 뉴욕 거리, 차 안팎 등의 장면을 나나 바나나로 실행해 비디오를 제작할 계획입니다.
워크플로를 읽고 실행하여 카메라 앵글들을 캡처합니다. 모든 청크를 성공적으로 생성하고 MCP 도구인 나나 바나나 에디트를 실행합니다.
소스 이미지와 '차 안에서 카메라에 말하는 사람'이라는 프롬프트를 입력하여 새로운 비디오 모델로 작업을 진행합니다. 생성된 이미지들을 확인해보니 차 안과 거리 장면이 잘 만들어졌습니다.
MCP 서버를 사용해 아바타 생성 비디오 도구를 실행하고 세그먼트 MP4를 출력합니다. 립싱크가 잘 작동하는 것을 확인하고, 옴니에서 클링의 새 모델로 변경합니다.
올바른 오디오 입력으로 모든 청크를 MP4 파일로 변환하고 네 번 실행하여 네 개의 클립을 생성합니다. 모든 것을 합쳐서 최종 비디오를 완성합니다.
11 Labs에서 배경 소음을 생성하여 최종 비디오에 5-15% 볼륨으로 추가합니다. 전체적으로 잘 작동했다고 평가하며 완성된 최종 클립을 확인할 준비를 합니다.
[00:11:12] 결론 및 구독 옵션 고민

GPT-5 Codex 테스트 결과 속도 개선과 모델 전환 유연성을 높이 평가합니다. Pro 구독과 연 구독(OpenAI) 사이에서 최적의 선택지를 고민하며, 시장에 나오는 신규 모델을 주기적으로 시험해 볼 것을 제안합니다.

완성된 비디오 편집이 완벽하지 않았지만, 코덱스 테스트 결과는 성공적이었다고 평가하며 최종 결과를 보여준다.
18초 분량의 트럼프 대통령 영국 방문과 관련된 시위 영상을 재생하여 모델의 성능을 시연한다.
영상이 완벽하지 않았지만 모델이 성공적으로 작동했다고 평가하며, 지난 며칠간의 코덱스 테스트 경험에 대한 결론을 제시한다.
코덱스의 장점으로 향상된 속도와 간단한 요청부터 복잡한 코딩 문제까지 다양한 요청 간의 원활한 전환 기능을 언급한다.
현재 Claude Mac 구독에서 Pro 구독으로 변경했으며, GPT-5나 OpenAI Pro 구독 vs Claude Code의 Max 구독 중 어느 것을 선택할지 고민 중이라고 밝힌다.
코덱스에 만족하고 있지만 Claude Code 대비 CLI 도구에서 개선이 필요하며, Anthropic도 최근 Sonnet과 Opus 모델에서 문제를 인정했다고 언급한다.
특정 회사에 충성할 필요 없이 현재 시점에서 가장 좋은 모델을 선택하라고 조언하며, 연간 구독보다는 유연한 사용을 권장한다.
GPT-5 코덱스 모델에 대한 초기 인상이 매우 만족스럽다고 평가하며, 아직 시도해보지 못한 낮음/보통/높음 설정 간 전환 테스트에 대한 계획을 언급한다.
이번 주에 OpenAI가
GPT-5 Codex를 출시했고, 지난 며칠 동안
물론 Codex CLI에서 테스트해봤는데
정말 인상적이었습니다.
그래서 짧은 영상으로
이전 영상에서 구축한 설정에서
변경 작업을 시도해보고
어떻게 작동하는지 보고 싶었습니다.
해결하고 싶은 문제가 있어서
모델을 바꿔보려고 합니다.
오늘 새로운 GPT-5 Codex를
사용해보고 싶고
첫인상을 공유하고 싶습니다.
좋은 점, 그렇지 않은 점들과
어떤 용도로 사용할 수 있는지에 대한 생각을
Claude Code에서 전환을 고려하고 있거나
ChatGPT 구독이 있어서
한번 시도해보고 싶다면
도움이 될 것입니다. 저는 Pro 버전을 사용하고 있어요.
ChatGPT의 $20 구독 플랜입니다.
그 계정으로 Codex CLI에 로그인해서 사용하고 있습니다.
벤치마크들도 살펴봤지만
오늘은 그것에 너무 집중하지 않고
직접 시도해보고
무엇을 할 수 있는지 보고 싶습니다.
SWE Bench를 보면
여기서 약간의 향상을 볼 수 있습니다.
Opus 4.1과
다른 모델들과 비슷한 수준인 것 같네요.
네, 꽤 좋습니다.
GPT-5에서 조금 더 나아졌습니다만
Codex에서 가장 인상적이었던 것은
곧 설명드리겠지만
프로젝트로 들어가서
무엇을 할 수 있는지 보겠습니다.
이전 영상에서
Codex에서 이런 설정을 생성했었는데
MCP 서버를 사용해서 비디오를 생성하는 것입니다.
소리는 재생하지 않겠지만, 이것은 저의 아바타로
한 장의 이미지에서 만들어졌습니다.
이전 영상을 돌아가서 보시면 됩니다.
여기서 앵글을 바꾸고 있는 것을 볼 수 있습니다.
AI 아바타 모델을 사용하고
11 Labs과
Banana 같은 여러 MCP 서버들과
결합해서 이런 유형의 비디오를 만들고 있습니다.
하지만 최근에 Omnihuman 모델에
몇 가지 문제가 있었습니다.
그래서 새로운 GPT-5 Codex를 사용해서
이 AI 아바타 모델의 Cling 버전으로 바꿔보고
얼마나 부드럽게 전환되는지
보고 싶었습니다.
방법은 이렇습니다.
제 레포지토리로 가서
여기서 Codex를 입력하겠습니다.
모든 것을 업데이트했습니다.
/mod를 실행하면
Codex Medium에 있는 것을 볼 수 있습니다.
여기서 그대로 유지하겠습니다.
물론 High나 Low로 바꿀 수도 있지만
지금은 Medium으로 유지하겠습니다.
제가 하고 싶은 것은
Cling AI 아바타로 전환하고 싶다는
지시사항을 주는 것입니다.
먼저 API에서 문서를 가져와야 합니다.
이 모델의
모든 문서를 가져오겠습니다.
그리고 여기서
문서를 만들겠습니다.
Cling Avatar.md 같은 이름으로
fal에서 가져온 것으로 하겠습니다.
네, 그렇게 하겠습니다.
Cling
Avatar.md나 fal에서 가져온 비슷한 이름으로 하겠습니다.
이것은 같은 제공업체입니다. 그래서
여기에 이미 API 키가 있습니다. 그리고
이제 여기서 코덱스에게 지시해서
이 두 모델을 옴니 모델에서
클링 모델로 바꿔보려고 하고
이 과정이 얼마나 매끄러운지 보겠습니다.
새 문서를 읽는 것부터 시작해보죠.
클링 아바타라고 했나요?
그럼 그렇게 해보겠습니다.
지금까지 제가 좋아했던 몇 가지
점들에 대해 이야기해보고 싶습니다.
이 새로운 다이나믹 씽킹이
새 코덱스 모델을 훨씬 더
반응적으로 만들어줍니다.
얼마나 빨랐는지 보셨죠?
제가 알아차린 건 속도 개선이
정말 좋았다는 점입니다.
앞서 말한 것처럼 다이나믹 씽킹이라는
기능이 있어서 토큰이나 추론을
많이 사용하지 않으려고 합니다.
간단한 작업이라고 분류되는 것에 대해서는요.
그리고 복잡한 작업에는 더 많은 시간을
투자합니다. 완벽한 제어권은
없는 것 같지만
지금까지 테스트해본 결과로는
꽤 잘 작동하는 것 같습니다. 예를 들어
"이 응답은 꽤 빨라야 하잖아요?"
라고 하면 보시는 것처럼 빨리 나옵니다.
하지만 복잡한 요청을 하면
더 오래 걸립니다. 그리고
지금까지 테스트해본 결과로는
꽤 좋은 작업을 해낸 것 같습니다.
하지만 이제 우리가 하고 싶었던 일을 해보죠.
새 모델의 문서를 읽었고
여기서 프롬프트를 작성해보겠습니다.
아바타 MCP 서버와
옴니 모델에 몇 가지 문제가
있습니다. 지금 작동하지 않고 있어요.
그래서 MCP 서버용
클링 AI 아바타 모델로 바꾸고 싶습니다.
이 테스트를 실행하는 데
도움을 주시겠어요?
이걸 실행해보고 이 작업이
얼마나 매끄럽게 진행되는지 보고 싶습니다.
자, 이제 여기서 이 모든 것을
탐색하고 있는 것을 볼 수 있습니다.
코덱스에 대해 제가 주목한 한 가지는
클라우드 코드 사용 대신에
모든 도구 호출을 미리 하는 경향이 있다는 것입니다.
괜찮다고 생각합니다.
이것에 대해 문제를 보지 못했고
문제가 있을 것 같지도 않습니다.
클라우드 코드나 코덱스의 이전 버전으로
이 문제를 해결하려고 했다면
괜찮았을 것입니다. 하지만
좀 더 매끄러운 경험이 있는 것 같습니다.
여기서 무엇을 바꿨나요?
모델을 바꾼 것을 볼 수 있습니다.
이것이 제가 보고 싶었던 것입니다.
여기서 차이점을 만들었습니다.
옴니휴먼 모델을 제거하고
이것을 넣었습니다. 네, 좋아 보입니다.
그리고 같은 입력 인수들이
여전히 있습니다. 이미지 URL들과
오디오 URL들 그리고 파일 키가 있습니다.
네, 이것이 제가 예상했던 것입니다.
그래서 꽤 좋아 보입니다. 제가 주목한
한 가지는 여전히 클라우드 코드를
선호하는 이유는 MCP 서버 설정하는
방법 때문입니다. 클라우드 코드 사용 경험이
좀 더 매끄러웠습니다. 하지만 그건
저 때문일 수도 있습니다.
제가 한동안 이걸로 작업해왔고
코덱스를 그렇게 많이 사용하지 않았거든요.
지금까지 저에게는 MCP 서버
경험이 좀 더 수월했던 것 같아요
적어도 클라우드 코드에서는요. 하지만
여기서 코덱스를 더 많이
써보려고 합니다. 그래서 여기 문서에서
몇 가지 변경을 하겠습니다.
요청하지 않았는데
알아서 해주네요. 그런데 여기서 제가 좋게 보는 것 중 하나는
마지막에 있는 요약 부분이에요.
이런 게 마음에 듭니다.
토큰을 많이 사용하지 않고
요점을 잘 짚어내고
참조도 있어서 좋네요.
Avatar MCP 서비스가 이제
새로운 모델, 새로운
엔드포인트를 구독합니다. 호출 시 API 경로를 정리하는
도움말과 통합 가이드,
avatar.md에 새로운 문서와
테스트를 할 예정이고 다음
단계가 있습니다.
이 다음 단계 기능이
마음에 드는데, 할 수 있는 것은
다음 단계를 실행해달라고 요청하는 것입니다.
여기서 fal 키를
설정하고 싶지 않아서 환경 변수에서
fal 키를 로드하고 싶은데
어떻게 할 수 있을지 보겠습니다.
여기서 저는 환경에서
파일 키를 로드하고
확인 후 필요하면 빌드 업데이트하라고
했습니다. 잘 작동할 것 같네요.
환경에 설정하고 싶지 않고
단지 env에서
로드하고 싶을 뿐입니다.
어떻게 되는지 보고, 이것을
구현하면 새로운
MCP 서버의 전체 실행을 해보고
처음에 있던 것과 같은 영상을
만들어보려고 합니다. 물론 이번에는
뉴스 기사에서
가져온 새로운 MP3 파일을
사용할 예정입니다. 그리고
이 구현이 제대로 되었는지
테스트해보겠습니다. 파일 키를
여기에 넣으라고 하네요. 이것이
다음 단계입니다. 이미 설정되어 있거나
이미 되어 있다는 뜻이죠.
server/env 파일에
파일 키가 설정되어 있으니까요. 괜찮을 겁니다.
좋습니다. 모든 게 설정되어 있으니
이제 해야 할 일은
재시작하는 것입니다.
코덱스/MCP를 종료할 수 있습니다.
아바타 모델이
실행되고 있나요? 네. 이제
할 일은 워크플로의
전체 실행을 해보고
모든 것이 작동하는지 확인하는 것입니다.
타임아웃을 확인하고 싶은데
모델의 실행 부분이
시간이 걸릴 수 있기 때문입니다.
이 MCP 서버의
타임아웃을 빠르게 확인하고
몇 번의 전체 실행을
해보겠습니다. 타임아웃을
10분으로 설정했습니다.
비디오를 실행하기에 충분할 겁니다.
이제 할 일은 워크플로를
확인하는 것인데, 이를 위한
워크플로가 있습니다. 기본적으로 해야 할
모든 일들이 나와 있습니다.
첫 번째로 이미지를
제공하겠습니다. 여기에
소스 이미지가 있죠? PNG 파일이
될 것입니다. 여기로 가면
나나 바나나 앵글에 입력할 PNG 파일이 될 거에요, 맞죠?
이건 그냥 한 여자가 있는 거에요.
이게 우리 소스 파일이 될 거에요.
그리고 다음 단계는 오디오 파일을 제공하는 것이죠.
여기에 어제 제가 읽은 뉴스 기사에서 18초짜리 클립이 있어요.
그건 이미 미리 준비되어 있고요.
그럼 이제 ffmpeg을 좀 사용할 거에요.
5초짜리 청크를 만들 거에요.
지난 비디오를 보셨다면 이걸 아실 거에요.
그럼 여기 이 리스트를 사용할 거에요.
다양한 카메라 앵글들이 있어요.
나나 바나나로 소스 이미지를 실행할 거에요.
커피숍 안의 소스 이미지가 있고요.
뉴욕 거리에서, 차 밖에서,
차 안에서, 이런 식으로요. 보시게 될 거에요.
그럼 이것들을 합쳐서
여기 있는 것처럼 비디오로
완성하기를 바래요, 맞죠?
그래서 제가 지금 진행한 것은
이걸 시작한 거에요.
워크플로를 읽어라 같은 간단한 명령을 했죠.
꽤 빨랐어요. 워크플로를 읽었죠.
카메라 앵글들을 캡처할 거에요.
그리고 워크플로를 실행하라고 했고
여기서 작업을 시작했어요, 맞죠?
모든 청크를 만든 게 보이시죠.
완벽해요. 이제 MCP 도구를 실행하고 있어요.
나나 바나나 에디트요.
소스 이미지를 입력하고, 프롬프트를 입력해요.
차 안에서 카메라에 말하는 사람.
이게 첫 번째 입력 이미지가 될 거에요.
그럼 여기 아래로 계속 내려가서
새로운 비디오 모델로 시작하기를 바래요.
그걸 보게 될 거에요.
여기 들어가서 이미지들을
확인해볼 수 있어요.
이런 게 있어요, 맞죠?
차 안 옆쪽이고,
아마 차 밖이고 거리에서일 거에요.
네, 완벽해요. 꽤 좋아 보여요.
그럼 이제 비디오가
여기서 시작할 때로 돌아가겠어요.
MCP 서버를 사용하지 않고 있네요.
그걸 고쳐보겠어요.
하지만 다시 돌아가겠어요.
좋아요.
아바타 생성 아웃터 비디오 도구를
MCP 서버를 사용해서 실행한 게 보이시죠.
인수들, 트렁크와 이미지를 입력했어요.
세그먼트 MP4를 얻었고요.
완벽해요. 지금은 소리를 재생할 필요 없지만
이게 작동하는 게 보이시죠.
립싱크도 다 되고 있고요.
잘 작동한 것 같아요.
옴니에서 클링의 새 모델로
모델을 바꿨어요.
모든 청크를 생성한 게 보이시죠.
올바른 오디오 입력이나 인수들로
MP4 파일들로 바꿨어요.
네 개의 클립을 만들기 위해
이걸 네 번 실행했고요.
그리고 모든 걸 합쳤어요.
완벽해요. 최종 비디오가 나왔고요.
여기에 뭔가 더 추가하고 싶었어요.
11 Labs로 가서
배경 소음을 만들었어요.
여기 끝부분에서 볼 수 있듯이
5% 볼륨이나 15% 정도로
그걸 합쳤어요.
꽤 잘 된 것 같아요.
그럼 최종 클립을 한번 봐요.
그건 아니었는데...
음, 꽤 괜찮게 작동했어요.
최종 클립을 보겠어요.
완벽하지는 않았습니다. 편집을 좀 해야 했을 텐데요.
소리가 문장 중간에 끊어지고 그런 부분이 있었거든요.
하지만 코덱스를 테스트해본 결과로는
꽤 잘 작동한다고 생각합니다.
그럼 최종 결과를 봅시다.
그리고 제가 결론을 내리고
이 프로젝트와
코덱스 GPT로
앞으로 어떻게 계속할지 말씀드리겠습니다.
여기서 비디오를 볼 수 있죠.
그냥 재생해보겠습니다. 18초 정도 되는 영상이에요.
트럼프 대통령이 영국에 도착했습니다
드문 두 번째 국빈 방문으로,
윈저 성 밖에서 시위가 일어났습니다.
밤새 활동가들이 트럼프와
고인이 된 제프리 엡스타인을 연결하는
이미지를 왕궁 벽에 투사했습니다.
경찰이 네 명을 통신 혐의로
구속했으며, 무허가 공개라고 불렀습니다.
보시다시피 완벽하지는 않았죠.
하지만 모델은 작동했고
전환도 꽤 성공적이었다고 생각합니다.
하지만 지난 며칠간
코덱스를 테스트해본 것에 대해
결론을 내리고 싶습니다.
꽤 좋았다고 생각해요.
가장 마음에 드는 점은
속도가 변했다고 느끼는 점이고
잘 작동한다는 점입니다.
안녕하세요 같은 간단한 요청과
코드를 깊이 파고들거나
더 복잡한 문제가 있을 때처럼
더 복잡한 요청 사이의 전환이
꽤 잘 작동하는 것 같습니다.
하지만 아직 전환을 정당화할 만큼
충분한 시간을 갖지 못했습니다.
사실 저는 Mac 구독에서
Claude를 다시 Pro 구독으로 설정했습니다.
왜냐하면 제가 코덱스를 사용해서
GPT-5나 OpenAI Pro 구독으로 업그레이드할지
아니면 Claude Code를 사용해서
다시 Max 구독으로 돌아갈지
보고 싶기 때문입니다. 지금은 중간 단계에 있어서
계속 테스트해보고
어디에 정착할지 보겠습니다.
OpenAI의 200달러 구독으로 가야 할까요?
아직 확실하지 않습니다.
잠시 기다려보고 어떻게 할지 보겠습니다.
하지만 지금까지는 코덱스에
꽤 만족하고 있습니다.
Claude Code에 비해 CLI 도구에서
아직 개선할 부분이 있다고 생각합니다.
심지어 Anthropic도
최근에 Anthropic의 모델들에서
Sonnet과 Opus 모델들에서
많은 문제가 있었다고 인정했습니다.
그래서 어떤 회사에도
충성할 필요는 없습니다.
현재 시점에서 가장 좋은 모델을 가진
회사를 선택하고
언제든 취소할 수 있으니까
그냥 바꿔가며 사용하면 됩니다.
저는 1년 구독처럼
연간 구독을
구매하는 것은 추천하지 않습니다.
저는 그냥 바꿔가며 사용하고
가장 좋은 모델을 사용하고 싶습니다.
만약 앞으로 몇 주 안에 Gemini Ultra가 나온다면
모든 사람이 그것으로 바꾸고
Gemini CLI를 사용하고 싶어할 것입니다.
그럼 두고 봅시다.
하지만 GPT-5 코덱스 모델에 대한
제 초기 인상은 정말 만족스럽고
아직 충분히 해보지 못한 것 중 하나는
낮음, 보통, 높음 설정 사이의
전환을 시도해보는 것입니다.
높음 설정을 좀 더 시도해볼 것 같습니다.
아직 확실하지 않지만
지금까지는 보통 설정으로
사용해왔고 꽤 잘 작동하는 것 같습니다.
시청해주셔서 감사하고
댓글로 여러분이 어떻게 할 건지
알려주세요. Claude Code에서
코덱스로 바꾸실 건가요
아니면 Claude를 계속 사용하실 건가요?
앞으로 몇 주 안에 신형 모델이 나온다면
Gemini도 시도해보실지도 모르겠네요.
시청해주셔서 감사하고 좋은 하루 되세요.