Phi-4로 오픈 멀티모달 활성화하기

채널 아이콘
Sam Witteveen 구독자 81,400명

요약

본 영상은 Microsoft가 발표한 F4 모델 시리즈 중 특히 3.8B 파라미터 미니 인스트럭트 모델과 그 확장된 멀티모달 버전에 대해 심도 있게 다룹니다. 영상은 모델의 함수 호출 기능, 온디바이스 실행 허용을 위한 경량화된 런타임, 그리고 비전·오디오 인코더를 통한 이미지 및 오디오 처리 방식을 설명합니다. 또한 실제 코드 시연을 통해 OCR, 전사, 번역 등 다양한 응용 사례를 보여주며, 향후 에이전트 기반 응용으로의 발전 가능성을 제시합니다.

주요 키워드

F4 모델 멀티모달 미니 인스트럭트 함수 호출 Onyx 런타임 OCR 전사 토크나이저

하이라이트

  • 🔑 Microsoft가 F4 모델을 발표하며 14B와 3.8B 파라미터 모델의 차별점을 소개합니다.
  • 🌟 3.8B 미니 인스트럭트 모델에 함수 호출 기능이 추가되어 소형 에이전트 개발이 가능해졌습니다.
  • 🚀 멀티모달 모델은 텍스트, 이미지, 오디오 등 다양한 입력을 동시에 처리하여 응용 범위를 확장합니다.
  • 📌 Onyx 런타임 및 GG UF 버전 등 경량화된 실행 환경을 통해 다양한 디바이스에서 모델을 운영할 수 있습니다.
  • ⚡️ 실제 코드 시연을 통해 OCR, 오디오 전사, 번역 등 모델의 다양한 기능이 구체적으로 시연됩니다.

용어 설명

F4 모델

Microsoft가 발표한 대형 언어 모델 시리즈로, 다양한 크기와 기능의 FI 모델들을 포함합니다.

멀티모달

텍스트, 이미지, 오디오 등 여러 종류의 데이터를 동시에 처리할 수 있는 AI 기술을 의미합니다.

미니 인스트럭트 모델

약 3.8B 파라미터를 가진 모델로, 함수 호출과 같은 추가 기능을 탑재해 특정 작업 수행에 최적화되어 있습니다.

Onyx 런타임

경량화된 모델을 다양한 디바이스에서 효율적으로 실행할 수 있도록 지원하는 런타임 환경입니다.

토크나이저

텍스트나 이미지 등의 입력 데이터를 모델이 이해할 수 있도록 작은 단위(토큰)로 분해하는 도구입니다.

[00:00:00] F4 모델 발표와 FI 모델 개요

Microsoft의 F4 모델 발표와 함께 14B 대형 모델과 3.8B 파라미터 미니 인스트럭트 모델의 차이점을 설명합니다. 초기 무게 공개와 배포 이슈가 간략히 다루어집니다.

마이크로소프트가 12월에 새로운 Phi-4 모델을 발표했으나, 처음에는 140억 파라미터 모델만 언급되었고 가중치는 공개되지 않았습니다.
실제로 가장 주목할 만한 것은 38억 파라미터의 Phi-4 Mini 모델이었으며, 이전 버전들에서도 Mini 모델이 뛰어난 성능을 보여주었습니다.
Hugging Face에 여러 버전의 모델이 공개되었으나, 완전한 파인튜닝을 위한 베이스 모델은 제공되지 않았습니다. 대신 Instruct, Multimodal, ONNX, GGUF 등 다양한 버전이 제공됩니다.
Phi-4 Mini에 함수 호출 기능이 추가되어 로컬 환경에서 간단한 에이전트 구현이 가능해졌습니다.
[00:02:09] 함수 호출 기능과 경량 실행 환경

미니 인스트럭트 모델에 추가된 함수 호출 기능으로, 로컬에서 소형 에이전트 개발이 가능해진 부분을 설명합니다. 또한 Onyx 런타임과 다양한 버전으로 경량 실행 환경을 제공하는 점이 강조됩니다.

마이크로소프트는 사용자들이 클라우드보다는 로컬 디바이스에서 모델을 실행한다는 점을 인식하고, 라즈베리 파이나 모바일 기기 등 다양한 환경을 지원하는 ONNX 런타임을 제공합니다.
Phi-4 인스트럭트 모델은 3.8B 파라미터 규모로, 5조 토큰으로 학습되었습니다. 이는 다른 모델들의 12-15조 토큰에 비해 적은 양이지만, 합성 데이터를 효과적으로 활용하여 수학과 코딩 능력을 향상시켰습니다.
Phi-4의 주요 특징은 완전한 멀티모달 모델이라는 점입니다. 비전 인코더뿐만 아니라 오디오 인코더도 포함하여 이미지와 음성을 모두 처리할 수 있습니다.
[00:04:20] 멀티모달 통합 및 처리

비전 인코더와 오디오 인코더를 통해 이미지와 오디오를 동시에 처리하는 멀티모달 구조에 대해 설명합니다. 입력 데이터를 토큰화하여 텍스트와 결합하는 방식이 중심 내용입니다.

Phi-4 멀티모달 모델은 CLIP 인코더와 LoRA를 활용하여 1344x1344 크기의 이미지를 처리할 수 있으며, 이미지와 텍스트 데이터를 교차 생성할 수 있습니다.
오디오 인코더는 2백만 시간의 음성 데이터로 사전 학습되었고, 1억 개의 큐레이션된 데이터로 미세조정되었으며, 전체 모델은 약 5.6B 파라미터 규모입니다.
멀티모달 모델을 사용해 이미지와 오디오 처리 기능을 테스트해보겠습니다. Transformers 라이브러리가 LLM, VM뿐만 아니라 멀티모달 모델도 지원하도록 업데이트되었습니다.
[00:06:30] 코드 실습과 실제 응용 사례

실제 코드를 이용해 이미지 OCR, 오디오 전사, 번역 등 다양한 기능을 시연합니다. 이를 통해 모델의 다재다능함과 다양한 응용 가능성이 강조됩니다.

A100 GPU를 사용하고 있지만, 모델 자체는 작아서 T4에서도 실행 가능합니다. 다만 Flash Attention 등의 버전 호환성 문제가 있을 수 있습니다.
모델 로드 시 trust_remote_code=True 설정이 필요하며, 오디오와 이미지 처리를 위한 추가 코드들이 포함되어 있습니다.
Claude-3와 유사하게 이미지 태그를 사용하며, 여러 이미지를 처리할 때는 각각 번호를 부여합니다. 프로세서는 텍스트, 이미지, 오디오를 처리하여 텐서로 변환합니다.
간단한 함수를 만들어 채팅 템플릿을 적용하고, 현재는 단일 이미지만 처리하도록 구현했습니다.
벌과 꽃이 있는 이미지를 분석하여 모델이 정확하게 벌을 감지하고 배경과 꽃의 색상까지 상세히 설명합니다.
phi-4-mini-instruct 모델이 다른 모델들과 비교해 우수한 LLM이며, 이미지 내 객체 인식과 상세 설명이 가능합니다.
비행기 이미지 테스트에서 객체 인식은 잘 수행했으나, 정확한 개수 세기와 위치 특정에는 한계를 보였습니다.
OCR 기능 테스트에서 블로그 포스트 텍스트를 정확하게 추출하고 요약할 수 있음을 보여줍니다.
모델은 텍스트 기반 시각적 질의응답이 가능하며, 모델 크기 등 구체적인 정보도 정확히 추출할 수 있습니다.
이미지 처리 기능에 대해 설명하면서, 루프를 통해 이미지들을 순환하며 특정 레퍼런스를 찾을 수 있는 기능을 소개합니다.
오디오 처리 기능을 설명하기 시작하며, MP3 파일을 로드하고 샘플레이트를 추출하는 과정을 보여줍니다.
저커버그의 인터뷰 음성을 예시로 들며, 오디오 처리 함수에 필요한 프롬프트, 오디오, 샘플레이트 입력에 대해 설명합니다.
오디오 전사 기능의 정확성을 시연하며, 실제 저커버그의 발언을 정확하게 텍스트로 변환하는 것을 보여줍니다.
이 모델이 Whisper보다 더 큰 모델이지만, 로컬에서 작동할 경우 전사와 이미지 처리에 매우 유용할 것이라고 설명합니다.
오디오를 텍스트로 전사하는 것을 넘어 번역까지 가능한 추가 기능을 소개합니다.
오디오를 텍스트로 변환한 후 프랑스어로 번역하는 기능을 시연합니다.
텍스트 처리 기능을 설명하며, 텍스트 토큰화와 프롬프트 처리 방식을 소개합니다.
Phi-4 멀티모달 5.6B 모델의 성능과 특징을 평가하고, 미니 버전에 추가된 기능들의 인상적인 면을 설명합니다.
로컬 컴퓨터에서 실행 가능한 오픈 웨이트 멀티모달 모델로서의 장점과 활용 가능성을 논의합니다.
자, 지난 12월 마이크로소프트가
새로운 Phi 모델을 발표했는데요.
당시에는 140억 파라미터 모델만
언급했었습니다.
처음부터 매우 흥미로워 보였지만
이 모델의 가중치는 공개되지 않았죠.
사람들이 우회적인 방법으로
모델을 구할 수 있었는데,
Azure에서 다운로드해서
Hugging Face에 업로드하는 방식이었습니다.
하지만 1월이 되어서야
공식적으로 가중치가 공개되었습니다.
당시 제가 정말 궁금했던 것은
'Phi-4 Mini는 어디 있지?' 였어요.
140억 파라미터 모델이 인상적이긴 하지만
많은 흥미로운 점이 있었고
제가 항상 생각했던
가장 뛰어난 Phi 모델은
38억 파라미터의 Mini 모델이었죠.
이전 Phi-2와 Phi-3, Phi-3.5에서도 있었던
그 Mini 버전 말입니다.
그리고 지난주, 마이크로소프트가 드디어
38억 파라미터 Instruct 모델과
여러 다양한 버전의 모델들을
공개했습니다.
이 Phi 제품군을 보면
현재 구축되어 있는
수많은 Phi 모델들을 확인할 수 있죠.
이 영상에서는
이 모델들의 특징과
Phi-4의 새로운 점들,
특히 Phi-4M 멀티모달 모델과
고급 추론 기능이
어떻게 추가되었는지 살펴보겠습니다.
자, 이 릴리즈를 살펴볼까요?
Hugging Face에서 보면
여러 다양한 모델들이 있는데
새로운 Phi-4 Mini Instruct가 있습니다.
아쉽게도 베이스 모델은
공개하지 않은 것 같네요.
완전한 파인튜닝을 하고 싶다면,
이전에는 가능했던 것이
이제는 아쉽게도
Phi-4 모델에서는
불가능해진 것 같습니다.
대신 Phi-4 Mini Instruct와
Phi-4 Multimodal Instruct,
ONNX 버전들도 제공되고
GGUF 버전까지 제공됩니다.
Phi-4 Mini와 관련해서
사람들이 오랫동안
원했던 기능 중 하나가
함수 호출 기능이었는데,
이제 38억 파라미터 모델에 추가되었습니다.
이것은 기본적으로
로컬에서 함수 호출이 가능하고
복잡한 추론이 필요하지 않은
작은 규모의 에이전트를 만들 수 있으며
의사결정 포인트가 있고
함수 호출과 도구 선택에
도움을 받을 수 있다는 의미입니다.
또 다른 좋은 점은
마이크로소프트가 분명히 알았다는 거죠.
사람들이 이 모델들을 디바이스에서
실행한다는 것을요.
클라우드보다는
LM Studio나 Llama 같은 것들로
양자화된 버전을 실행하고 있죠.
GGUF 포맷뿐만 아니라 ONNX도 지원하고
정말 좋은 것 같아요.
ONNX 런타임을 출시해서
이 모델을 다양한 환경에서
서비스할 수 있게 되었는데,
라즈베리 파이나
모바일 폰 등에서도 실행할 수 있습니다.
Fi-4 인스트럭트 모델은 3.8B 파라미터로
이전과 비슷한 규모이며
새로운 토크나이저를 탑재했습니다
기본적으로 5조 개의 토큰으로
학습되었는데, 이는 그리 많은 양이 아닙니다
사전 학습 데이터 측면에서
다른 모델들과 비교하면
현재 나와있는 모델들은
12~15조 토큰이나 그 이상으로 학습되고 있죠
다른 모델들에 비해서는
하지만 흥미로운 점은
Phi 모델들이 합성 데이터를 주로 사용한다는 것입니다
이러한 합성 데이터를 활용하여
모델이 수학과 코딩을
잘 수행할 수 있도록 만들었고
각 버전이 나올 때마다
합성 데이터셋을 통해
지속적으로 개선되고 있으며
효과적인 방법을 실험하고 있습니다
현재 제가 보기에
매우 흥미로운 두 가지 특징이 있는데
Phi-3.5를 돌이켜보면, 비전 버전이 있었죠
이는 기본적으로 텍스트 모델에
비전 인코더를 붙여서
학습시킨 것이었습니다
Phi-4에서도 비슷한 접근을 했지만
흥미로운 점은 이제는
단순한 비전 모델이 아니라
완전한 멀티모달 모델이라는 점입니다
논문을 자세히 살펴보면
비전 인코더뿐만 아니라
오디오 인코더도 포함되어 있어서
이제 모델이 비전 인코더를 통해
이미지를 처리할 수 있고
이미지 토큰으로 변환할 수 있으며
비전 인코더를 통해 처리하고
오디오 인코더에서 나오는
오디오 토큰도 처리할 수 있습니다
Phi-4 멀티모달 모델은
3.8B 파라미터 백본 모델을 사용하고 있으며
흥미로운 점은
LoRA의 혼합 방식을 사용한다는 것입니다
비전 인코더는
CLIP 인코더를 사용하고 있는데
아마도 CLIP 1을 사용하는 것 같고
최근 구글에서 나온 CLIP 2는 아닙니다
앞으로 나올 버전에서는
더 좋아질 것 같은데
어쨌든 이 모델은
1344x1344 크기의 이미지를 처리할 수 있고
이미지와 텍스트 데이터 토큰을
서로 교차하여 생성하도록 학습되었습니다
음성과 오디오 요소에 대해서도
동일한 방식을 적용했는데
오디오 인코더는
비전 인코더보다 더 크며
오디오 LoRA 어댑터도 있어서
오디오 인코더에서 나오는 토큰을
모델이 사용할 수 있게 하고
이를 Phi-4 미니로
입력할 수 있게 합니다
이 오디오 인코더는
사전 학습을 위해 2백만 시간의
음성 페어로 학습되었고
LoRA를 통한 연결을 위해
추가로 1억 개의
큐레이션된 음성과 오디오 데이터로
지도 학습 미세조정을 진행했습니다
이제 코드를 살펴보고
실제로 어떻게 작동하는지
Phi-4 미니로 실험해보겠습니다
3.8B가 아니라 약 5.6B
파라미터까지 늘어났는데
이 멀티모달 모델로 무엇을 할 수 있는지 살펴보겠습니다
이 멀티모달 모델을 사용해서
이미지와 오디오에 어떻게 반응하는지 한번 살펴보겠습니다
자, 코드를 살펴보겠습니다
이 모델이 실제로 어떻게 동작하는지
확인해 보겠습니다. 정말 멋진 점은
Transformers 라이브러리가
LLM과 VM뿐만 아니라
이러한 멀티모달 모델까지도
처리할 수 있도록 업데이트되었다는 겁니다
이 Auto processor는
오디오와 이미지를 모두 처리할 수 있는데
이후에 자세히 살펴보겠습니다
저는 A100이 있는 Colab을 사용하고 있지만
실제로 그렇게 많은 RAM이 필요하지는 않습니다
모델 자체가 꽤 작아서
T4에서도 작동할 수 있을 것 같습니다
다만 한 가지 문제는 Flash Attention 등의
버전이 일부 GPU에서는 작동하지 않을 수 있다는 점입니다
하지만 그것을 제외하면
모델이 꽤 작아서 좋습니다
그럼 살펴보도록 하겠습니다
기본적으로 모델을 로드하고
trust_remote_code를 true로
설정해야 합니다
오디오와 이미지 처리를 위한
추가 코드들이 많이 있기 때문입니다
프로세서에서 이를 처리하기 위해서죠
이것들이 로드되고 나면
앞서 말씀드린 것처럼
메모리를 많이 사용하지 않습니다
그리고 나서 이미지를 로드하고
실행할 수 있습니다. 기본적인 방식은
Claude-3에서 했던 것과 비슷한데
이미지 태그를 사용하고
여러 이미지가 있을 경우에는
숫자를 변경합니다
지금은 image_1만 전달하고 있지만
image_1, image_2처럼
세 개의 이미지를 전달한다면
각각에 번호를 부여해서
사용할 수 있습니다
그리고 나서 질문을 할 수 있죠
여기서는 단순히
이미지에 무엇이 있는지 물어보겠습니다
이 주석을 해제하면
Claude-3 Vision 모델에서 가져온
예시를 실행할 수 있습니다
프롬프트는
토크나이저를 거치고
프로세서는 텍스트, 이미지, 오디오를 처리해서
텐서를 반환합니다
이번 경우에는 오디오가 없는데
이는 계속 진행하면서 보게 될 것이고
명확히 볼 수 있도록
인자들에 레이블을 붙였습니다
프로세서가 이것들을 가져와서
이미지 토큰화와
오디오 토큰화를 수행하고
마지막으로
평소처럼 모델을 통해 실행하여
응답을 얻을 수 있습니다
이미지로 시작해보겠습니다
간단한 함수를 만들었는데
채팅 템플릿을 적용하고
텍스트는 프롬프트로
이미지는 이미지 리스트의 첫 번째로 넣습니다
이미지를 하나만 사용하기 때문에
image_1으로 하드코딩했습니다
다른 방식으로 하고 싶다면
다르게 처리해서
여러 이미지를 넣을 수 있습니다
자, 이것은 제가 여러
Vision 모델에서 사용했던 이미지인데
이미지에 꽃과 벌이 있는데요,
항상 궁금했던 건
벌을 감지할 수 있을지였죠. 이번에도 확실히
흐린 배경 속 분홍색 꽃 위에 있는
벌의 클로즈업 샷을 보여주고 있네요.
두 가지 출력이 나오는 이유는
하나는 출력용이고 하나는 반환용이에요.
원래는 이것들을
마크다운 등에 넣으려고 했죠. 이 모델의 멋진 점은
다른 모델들과 비교했을 때
phi-4-mini-instruct가
꽤 우수한 LLM이기 때문에
이미지에 있는 벌이
어떤 종류인지 물어볼 수 있고
관련 정보를 제공받을 수 있어요. 또한
다른 것들도 잘 감지할 수 있는데
여기서 볼 수 있듯이
두 번째
색상이 빨간색이에요. 그래서
분홍색 외에 어떤
밝은 색의 꽃이 있는지 물어보면
바로 빨간색이라고 대답하죠.
제가 여러 VMS에서 테스트한
또 다른 예시는 이 비행기 사진인데
이 경우에도 사진이 무엇인지 잘 파악합니다.
하지만 숫자를 세는 것은 잘 못하네요.
비행기가 몇 대인지 물어보면
10대라고 하는데
실제로는 15대의 비행기가
있거든요. 그게 안 됐죠. 흥미롭게도
바운딩 박스를
요청했을 때는
16개의 다른 바운딩 박스를 반환했어요.
일부를 감지하긴 했나 봐요.
하지만 위치를 보면
정확한 위치는 아닌 것 같네요.
이것들을 플롯팅했을 때
어떤 공항인지 물어보면
그건 테스트 용도였는데
실제로는 LAX지만 아마도
어떤 모델이라도 알아내기는
매우 어려울 거예요. 흥미로운 건
'답변할 수 없음'이라고 응답한다는 거죠.
여기서 또 다른 흥미로운 점은
지금까지의 테스트에서
OCR도 매우 잘 한다는 거예요.
여기 보시면 제가
블로그 포스트를 캡처해서
텍스트를 추출해달라고 했더니
내용을 잘 추출했어요.
'phi-4 멀티모달이란 무엇인가? phi-4는
마이크로소프트 AI 개발의 새로운 이정표'라고
아주 잘 처리했네요.
참고로 두 번 반복되는 건
출력과 반환을
동시에 하기 때문이에요.
원하는 포맷을 얻기 위해서죠.
정말 잘 작동하는 것 같고
이런 작업에서 매우 높은 정확도를 보여줍니다.
물론 이렇게 텍스트가 있으면
질문도 할 수 있어요.
예를 들어 '이 텍스트를
요약해줘'라고 하면
간단한 요약을 제공하죠.
프롬프트를 다르게 하면
특정 방향으로
요약을 유도할 수도 있어요.
텍스트에 대한 시각적 질의응답도
가능한데, 이게 정말 멋져요.
예를 들어 여기서
모델 크기를 물어보면
5.6B라고
정확하게 답변하죠. 다양한 텍스트를
시도해보시고
특정 내용이 있는지 물어보세요.
이런 식으로 활용할 수 있어요.
정말 멋진 작업이 될 수 있는데요
루프를 실행하면서
이미지들을 순환하면서
특정 레퍼런스를 찾도록 요청할 수 있습니다
완벽한 매칭이 없더라도
레드잭과 같은 것들을 찾을 수 있죠
다음은 오디오 부분인데
이 부분이 꽤 흥미롭습니다
우선 MP3 오디오 파일을 로드하는데
여기서 핵심은 오디오와
실제 샘플레이트를 추출하는 것입니다
이것을 재생해보면 들을 수 있는데
"나는 그 답을 모릅니다"
"그렇다면 저는"
"컴퓨터가 만든 구조물이지"
"메타 회사를 만든 사람이 아닐 것입니다"
"하지만 그것이야말로 진정한 메타일 것입니다"
"4년 전이 아닐 것입니다"
들으시다시피 저건 저커버그가
인터뷰에서 이야기하는 내용입니다
이를 처리하기 위한 함수가 필요한데
이 함수에는
프롬프트와
오디오, 그리고 샘플레이트가
입력으로 들어갑니다
이미지와 마찬가지로
오디오1로 태그를 지정하고
여기에 프롬프트를 전달합니다
보시다시피 프롬프트를 토큰화한 후
프로세서에 입력하는데
텍스트와
오디오를 넣을 것입니다
오디오는 단순히
오디오와 샘플레이트를 가진
하나의 객체가 됩니다
리스트에 하나만 있는 거죠
실행해보면 오디오 전사를 요청했을 때
꽤 멋진 응답을 받을 수 있습니다
이런 식으로 응답이 오는데
"저는 그 답을 모릅니다"
함께 들어보시죠
"저는 그 답을 모릅니다"
"만약 그렇다면"
"저는 컴퓨터가 만든 구조물이지"
"메타 회사를 만든 사람이 아닐 것입니다"
"하지만 그것이야말로 진정한 메타일 것입니다"
"4년이 걸리지는 않을 것입니다"
"포토리얼리스틱 아바타를 만드는 데는"
"우리는 그것에 더 가까워졌다고 생각합니다"
이것이 핵심 질문인데요
왜냐하면 가상현실과
증강현실이 다른 모든 형태와
비교했을 때 다른 점은
보시다시피 매우 정확하게
오디오를 전사할 수 있습니다
이 성능은 일부 측면에서 Whisper를 능가하는 것 같은데
물론 이건 Whisper보다
훨씬 더 큰 모델이고
단순 전사만 원한다면
사용할 모델은 아닐 겁니다
하지만 로컬에서
작동하게 되면
이걸 컴퓨터에 설치해두고
필요할 때마다
전사를 하고 싶어질 겁니다
전사가 필요할 때마다
이걸로 처리할 수 있고
이미지 처리도 할 수 있죠
예제에서 본 또 다른 멋진 점은
전사 기능이 정말 훌륭한데
예제 중 하나를 보면
오디오를 텍스트로 전사할 뿐만 아니라
그것을 번역까지 할 수 있습니다
여기서 보시다시피 오디오가
기본적으로 전사되어
분리된 토큰으로 변환된 다음 프랑스어로
넘어가서 기본적으로 동일한 내용을
프랑스어로 보여주고 있습니다. 제 생각에는
이런 종류의 작업으로 할 수 있는
아이디어가 많을 것 같습니다. 마지막으로
마무리하면서 보여드리고 싶은 것은
물론 텍스트도 처리할 수 있다는 점입니다.
이 경우에는 기본적으로
텍스트를 토큰화하고
text equals prompt로 전달하고
오디오와 이미지는 제외하면 됩니다.
이런 경우에는 일반적인
함수를 작성할 수 있는데, 이 함수는
입력되는 것을 확인하고
필요한 이미지 토큰 수와
오디오 토큰 수 등을 결정합니다.
여기서 보시다시피
텍스트의 경우에도 꽤 괜찮고
표준적인 마크다운 텍스트가 생성되어
다른 대규모 언어 모델처럼
사용할 수 있습니다. 전반적으로
제가 실험해본 이 모델은
Phi-4 멀티모달
5.6B 버전인데, 전체적으로 이 모델은
매우 인상적입니다. Phi-4 미니에
이러한 기능들을 추가할 수 있다는 점이
정말 인상적입니다. 더 큰 버전의
모델에 이러한 기능들을 추가하면
어떻게 될지 보는 것도
흥미로웠을 것 같습니다.
하지만 전반적으로 다시 한 번 말씀드리면
여기서 공개한 Phi 계열 모델들은
확실히 매우 흥미롭습니다.
이것은 여러분이
로컬 컴퓨터에
설치해서 다양한 작업을 수행하는 데
사용하고 싶을 만한 모델 중 하나이며
이렇게 멀티모달 작업을 수행할 수 있는
오픈 웨이트 모델을 가지게 된 것이
정말 멋집니다. 여러분들의 의견도
듣고 싶습니다. 어떤 용도로
사용할 계획이신가요? 아마도 향후 영상에서
이 모델의 로컬 버전을 사용하여
도구 호출이나 다른 기능들을
살펴볼 예정입니다.
이 모델이 분명히
에이전트 작업에 유용할 것 같은데
여러분은 어떤 용도로 사용할
계획인지 듣고 싶습니다.
항상 그렇듯이 이 영상이
도움이 되셨다면 좋아요와 구독 부탁드리며
다음 영상에서 다시
만나뵙겠습니다. 안녕히 계세요.