[00:00]
제가 로컬 AI 패키지에 대해
[00:02]
제 채널에서 많이 다뤘는데요,
[00:05]
이것은 단연코 모든 로컬 AI를
[00:08]
무료로 단일 스택에서 실행하는
[00:10]
가장 쉬운 방법입니다. LLM, 데이터베이스,
[00:12]
자동화 도구, 로컬 웹 검색,
[00:15]
사용자 인터페이스까지 모두 포함되어 있죠.
[00:17]
이 패키지를 사용하면 매우 쉽게
[00:20]
클라우드에서 로컬 AI 환경을
[00:22]
필요할 때마다 구축할 수 있습니다.
[00:25]
로컬 AI라 하더라도 항상
[00:27]
자신의 컴퓨터에서 실행하고 싶지 않을 수 있죠.
[00:30]
내부 팀원들처럼 다른 사람들이
[00:31]
로컬 AI 설정을 사용하길 원하거나,
[00:33]
24/7 실행이 필요한데
[00:36]
컴퓨터 자원을 계속해서
[00:38]
잡아먹는 것을 원치 않을 수 있습니다.
[00:41]
또는 현재 가지고 있지 않은
[00:43]
하드웨어에 접근하고 싶을 수도 있고,
[00:45]
이러한 모든 이유가 복합적으로 작용할 수 있죠.
[00:47]
다행히도 로컬 AI 스택을
[00:49]
클라우드에 배포하면
[00:51]
이 모든 문제를 해결할 수 있습니다.
[00:54]
그리고 클라우드 인스턴스를
[00:57]
직접 관리하는 한 여전히 로컬로 간주됩니다.
[00:59]
이 영상에서는 단계별로
[01:02]
로컬 AI 패키지를 가져와서
[01:04]
여러분만의 프라이빗 클라우드 인스턴스에
[01:06]
배포하는 방법을 보여드리겠습니다.
[01:09]
이렇게 하면 자신의 컴퓨터에만
[01:11]
국한되지 않고 로컬 AI의 장점을 누릴 수 있죠.
[01:14]
게다가 로컬 AI 패키지에
[01:16]
새로운 기능이 추가되어
[01:18]
이 과정이 매우 쉬워졌습니다.
[01:21]
이것은 매우 직관적인 가이드이며,
[01:24]
클라우드 제공업체와
[01:25]
하드웨어 요구사항도 다룰 것입니다.
[01:27]
로컬 AI에서 중요한 고려사항이니까요.
[01:29]
여기에 더해서 n8n이나
[01:31]
Open WebUI같은 서비스를 위한 서브도메인
[01:34]
설정 방법도 알려드릴 예정이라
[01:36]
완벽한 엔드투엔드 가이드가 될 것입니다.
[01:40]
이 로컬 AI 패키지의 GitHub 저장소
[01:42]
링크는 영상 설명란에 있습니다.
[01:44]
이 패키지의 장점은
[01:46]
여기 보이는 모든 로컬 AI 서비스를
[01:48]
하나로 묶어서
[01:51]
설치하고 구성할 수 있게
[01:52]
리드미에 설명된 몇 가지 단계로
[01:55]
매우 간단하게 만들었다는 점입니다.
[01:57]
모든 것을 쉽게 시작할 수 있죠.
[02:00]
제 채널의 이전 영상에서
[02:01]
여기 링크된 영상을 보시면
[02:04]
이 단계들을 따라 개인 컴퓨터에
[02:06]
설치하는 방법을 보여드렸는데,
[02:08]
이제는 클라우드에서 해보겠습니다.
[02:10]
원래 n8n 팀이 만든 이 패키지를
[02:12]
제가 확장해서 이 모든 서비스를 포함시켰습니다.
[02:15]
n8n, Supabase, Ollama, Open WebUI,
[02:18]
Flowise, Quadrant가 있고,
[02:21]
최근에는 CRX-NG를 추가했는데,
[02:23]
이는 로컬 프라이빗 웹 검색을 위한 것이며,
[02:26]
캐싱을 위한 Redis도 포함되어 있습니다.
[02:28]
그리고 이 영상에서 중요한 것은
[02:30]
Caddy를 추가했다는 점인데,
[02:33]
이는 HTTPS와 TLS를 관리해주는 도구입니다.
[02:37]
덕분에 클라우드에서 실행되는
[02:40]
모든 서비스에 대해
[02:41]
보안 엔드포인트를 가질 수 있습니다.
[02:45]
예를 들어, n8n.yourdomain.com처럼
[02:47]
클라우드에서 안전하게 호스팅되는
[02:50]
n8n 인스턴스에 접근할 수 있죠.
[02:52]
이것이 Caddy의 중요한 역할이며,
[02:54]
이제 모든 단계를
[02:56]
자세히 살펴보도록 하겠습니다.
[02:57]
이것을 어떤 리눅스 머신에서도
[03:00]
클라우드에서 작동하는 방식으로
[03:01]
구축할 수 있습니다.
[03:02]
Digital Ocean이나 Lambda Labs, AWS를 사용하든
[03:06]
자체 서버나
[03:07]
데이터센터를 가지고 있든
[03:09]
이 단계들을 따르실 수 있습니다.
[03:11]
가능한 한 일반적으로 설명하여
[03:13]
로컬 AI를 어디에 구축하든
[03:15]
적용할 수 있도록 했습니다.
[03:17]
이 영상에서는 Digital Ocean을 사용하여
[03:19]
로컬 AI 패키지를 배포할 것입니다.
[03:22]
이 영상은 광고가 아니며
[03:23]
스폰서도 없습니다. 제가 직접 사용하고
[03:26]
일반적으로 추천하기 때문에
[03:27]
여기서 다루는 것입니다.
[03:29]
CPU 인스턴스에 대해 가장 좋은
[03:31]
옵션을 제공합니다.
[03:33]
전용 GPU가 필요한 대규모
[03:35]
로컬 LLM을 실행하지 않는다면
[03:38]
Digital Ocean이 제가 본 것 중
[03:40]
최고의 선택입니다. 또한
[03:43]
Linode로 알려진 Akami Cloud도
[03:45]
CPU 인스턴스의 좋은 대안입니다.
[03:47]
GPU 인스턴스 플랫폼에 대해
[03:50]
간단히 말씀드리자면,
[03:51]
본인의 필요와 예산에 맞춰
[03:54]
직접 조사해보시길 바랍니다.
[03:56]
Lambda Labs, Vultr가 있고
[03:58]
Digital Ocean의 일부이지만 독립적인
[04:01]
플랫폼인 Paperspace,
[04:02]
그리고 더 큰 규모로는
[04:04]
당연히 AWS, Google Cloud,
[04:07]
Microsoft Azure가 있습니다.
[04:10]
이 모든 플랫폼들은
[04:11]
로컬 AI 패키지를 배포할 수 있는
[04:13]
GPU 인스턴스를 제공하며,
[04:15]
Digital Ocean과 동일한 방식으로
[04:17]
설치가 가능합니다.
[04:20]
잘 작동하지 않는 플랫폼도
[04:21]
몇 가지 있는데, 이것들도
[04:23]
빠르게 설명해드리겠습니다.
[04:25]
여러분이 사용하기 어려운
[04:27]
플랫폼을 선택하지 않도록 말씀드리자면
[04:29]
Tensor.do는 저렴한 GPU를 제공하지만
[04:31]
로컬 AI 패키지에 필요한
[04:33]
모든 포트를 열 수 없습니다.
[04:34]
또한 RunPod와
[04:36]
Novita 같은 플랫폼들도 있는데
[04:39]
이들은 좋은 서비스지만
[04:41]
모든 것을 컨테이너로 배포하며
[04:43]
컨테이너 안에 컨테이너를
[04:45]
쉽게 실행할 수 없기 때문에
[04:47]
로컬 AI 패키지를 구동하는 데
[04:49]
더 많은 작업이 필요합니다.
[04:51]
이것이 제가 Digital Ocean을
[04:53]
선택한 이유이며, GPU 드롭렛도
[04:55]
제공하므로 더 강력한 성능이
[04:58]
필요한 로컬 LLM을 위해
[05:00]
이제 인스턴스를 만들어보겠습니다.
[05:02]
Digital Ocean에 새 프로젝트를 만들고
[05:04]
오른쪽 상단의 Create를
[05:05]
클릭한 다음 Droplets를 선택합니다.
[05:07]
이 데모의 비용을 낮추기 위해
[05:09]
CPU 인스턴스를 생성할 것입니다.
[05:12]
전용 GPU는 없습니다. 지역을 선택하고
[05:14]
월 42달러짜리 인스턴스를
[05:16]
선택하겠습니다. 8GB RAM과
[05:18]
2개의 CPU를 제공하는데,
[05:22]
대형 로컬 LLM을 실행하지 않는 한
[05:25]
전체 로컬 AI 패키지를 실행하기에 충분합니다.
[05:28]
7-8억 개의 파라미터보다 큰
[05:30]
LLM을 실행하려면
[05:32]
전용 GPU가 필요할 것입니다.
[05:35]
상당한 비용이 더 들겠지만,
[05:38]
이는 필수적입니다. 만약
[05:39]
14B, 32B 또는 70B 파라미터의 대형 LLM을 사용하고 싶다면요.
[05:43]
하지만 많은 사람들이
[05:45]
CPU 인스턴스를 선택합니다. 비용이
[05:47]
저렴하기 때문이죠.
[05:49]
그리고 LLaMA는 다른 곳에서 호스팅하거나
[05:51]
OpenRouter 같은 API를 사용합니다.
[05:52]
최소한 나머지 스택은 프라이빗하고 로컬이니까요.
[05:54]
이런 서비스들에 대해서는
[05:56]
호스팅용 서버 비용 외에는
[05:58]
지불할 필요가 없습니다.
[05:59]
이것이 우리가 지금 하려는 것이고,
[06:00]
물론 여러분이 자체 서버가 있고
[06:02]
GPU가 있다면 더할 나위 없겠죠.
[06:03]
이제 이미지를 선택할 건데,
[06:05]
Docker가 미리 설치된 것으로 할 거예요.
[06:08]
Ubuntu는 가장 인기 있는 리눅스 배포판이라
[06:10]
여기 이걸 선택하겠습니다.
[06:12]
다른 서비스 제공자를 사용하시는 분들도
[06:13]
Ubuntu 리눅스 인스턴스를
[06:15]
찾을 수 있을 거예요.
[06:17]
제가 보여드릴 모든 명령어를
[06:19]
동일하게 따라하실 수 있습니다.
[06:20]
인증 방식으로는
[06:23]
SSH 키가 더 안전하지만,
[06:25]
간단하게 하기 위해
[06:27]
패스워드를 설정하겠습니다.
[06:29]
패스워드를 설정하고,
[06:31]
호스트 이름은 'YouTube-Local-AI-Package'로 하겠습니다.
[06:35]
이제 이 부분은 카메라를 끄고
[06:38]
패스워드를 설정한 뒤 드롭렛 생성을 클릭하고
[06:40]
인스턴스가 준비되면 돌아오겠습니다.
[06:42]
좋습니다.
[06:44]
이제 인스턴스가 생성되었으니
[06:46]
접속해서 액세스로 가서
[06:49]
root 권한으로 드롭렛 콘솔을 실행하겠습니다.
[06:52]
권한이 필요한 명령어들을
[06:54]
실행해야 하기 때문이죠.
[06:55]
root로 실행하면
[06:57]
인스턴스에 접속한 후에는
[06:59]
Local AI 패키지 저장소를 가져오기 전에
[07:02]
기본 설정을 위한
[07:03]
몇 가지 단계가 필요합니다.
[07:05]
README로 돌아가보면
[07:08]
클라우드 배포 시 필요한
[07:11]
추가 작업들이
[07:12]
전용 섹션에 있습니다.
[07:14]
방화벽을 열고
[07:15]
DNS 레코드를 설정해야 하거든요.
[07:18]
지금부터 이 과정을
[07:19]
설명해드리겠습니다.
[07:21]
방화벽 설정은 이미 했는데
[07:23]
모든 명령어를 일일이
[07:24]
보여드리진 않겠습니다.
[07:27]
방화벽 규칙을 활성화하고
[07:28]
Local AI 서비스들을 위한 포트를 열어야 합니다.
[07:31]
Supabase, Flowise,
[07:33]
OpenWebUI, n8n 등을 위해서죠.
[07:36]
그리고 CRXng나 Ollama를
[07:39]
외부에 노출하고 싶다면 이 명령어들을 실행하면 됩니다.
[07:42]
기본적으로 이렇게 하지 않는 이유는
[07:44]
CRXng와 Ollama는
[07:46]
다른 서비스들과 달리 비밀번호로 보호되지 않아서
[07:49]
누구나 사용할 수 있게 되기 때문입니다.
[07:51]
보통은 이것들을 프라이빗하게 유지하고
[07:53]
이 포트들은 열지 않습니다.
[07:55]
다른 Local AI 서비스들은
[07:57]
인스턴스 내에서 접근할 수 있죠.
[08:00]
로컬호스트를 통해서요.
[08:01]
하지만 외부 인터넷에서는
[08:04]
CRXng나 Ollama에
[08:06]
접근할 수 없게 됩니다.
[08:08]
방화벽 규칙을 모두 설정한 후에는 ufw reload를 실행하면
[08:11]
그러면 모든 규칙이 적용됩니다.
[08:14]
이 모든 작업에서 명심해야 할 점은
[08:15]
관리자 권한이 필요하다는 것입니다.
[08:17]
방화벽 설정은 여기까지이고, 이제
[08:19]
DNS 레코드를 설정해야 합니다. 이 과정은
[08:22]
DNS 제공업체에 관계없이 거의 동일합니다.
[08:24]
저는 Hostinger를 사용하고 있는데,
[08:26]
스폰서를 받은 것이 아니라
[08:28]
제가 automator.ai의 DNS로
[08:30]
사용하고 있기 때문입니다. 여러분은
[08:32]
Digital Ocean으로 가서 IPv4 주소를
[08:34]
복사한 다음, 이것을
[08:37]
대상 IP 주소가 가리키는 곳에
[08:40]
붙여넣기 하면 됩니다.
[08:43]
그리고 A 레코드 타입으로 설정하고
[08:45]
이름 부분에는 사용하고자 하는
[08:47]
서브도메인을 입력합니다.
[08:49]
예를 들어
[08:50]
yt-n8n.automator.ai를 Digital Ocean
[08:55]
드롭렛의 n8n 인스턴스로 연결하려면
[08:58]
이렇게 설정합니다. 이름을
[09:00]
yt-n8n으로 지정하면 이것이 서브도메인이 됩니다.
[09:02]
이 레코드를 추가하고 확인을 클릭한 다음
[09:04]
다른 서비스들에 대해서도
[09:07]
동일한 작업을 수행할 수 있습니다.
[09:08]
yt-supabase를 추가하고
[09:11]
그 다음 openwebui도 추가합니다.
[09:14]
마지막으로 현재로서는
[09:16]
Flowise를 추가할 수 있고, CRX나 Ollama,
[09:18]
또는 Local AI 패키지에 추가하고 싶은
[09:21]
다른 서비스들에 대해서도
[09:23]
동일하게 설정할 수 있습니다. 이것으로
[09:25]
DNS 설정은 완료되었고, 이제
[09:28]
클라우드 배포를 위한 추가 단계도
[09:29]
모두 마쳤습니다. 이제 위로 올라가서
[09:32]
기본 설치 단계의 모든 작업을
[09:35]
실행할 수 있습니다. 먼저
[09:37]
git clone 명령어를 복사하겠습니다.
[09:39]
인스턴스를 다시 열고 이것을 붙여넣어
[09:42]
저장소를 복제한 다음
[09:45]
해당 디렉토리로 이동하겠습니다.
[09:47]
이제 ls 명령어로 보이는 모든 것이
[09:49]
GitHub 저장소의 루트에 있는
[09:50]
파일들입니다. 제가 지금 해야 할 추가 단계가 하나 있는데,
[09:52]
현재 모든 것이 feature 브랜치에 있기 때문에
[09:55]
브랜치를 변경해야 합니다.
[09:58]
여러분은 이 작업을 하실 필요가 없습니다.
[09:59]
이 영상을 보실 때쯤이면
[10:00]
모든 것이 main 브랜치에 있을 것이기 때문입니다.
[10:02]
이제 Caddy와 같은 모든 설정이
[10:04]
준비되어 있습니다. 지금은 자세히 설명하지 않겠지만
[10:05]
이 튜토리얼을 간단명료하게 유지하고
[10:07]
중요한 부분에 집중하고 싶습니다.
[10:09]
관심이 있으시다면 나중에
[10:11]
자세히 살펴보실 수 있습니다. 이제
[10:13]
환경 변수를 설정하겠습니다.
[10:15]
모든 것에 대한 예시가
[10:17]
.env.example 파일에 있습니다.
[10:19]
우리가 해야 할 일은 example 파일을 복사하는 것입니다.
[10:23]
보기 쉽게 확대해서 보여드리겠습니다.
[10:27]
새로운 .env 파일로
[10:28]
복사해야 하는데,
[10:30]
이렇게 하면 .env 파일의 내용이
[10:33]
.env.example과 동일하게 됩니다.
[10:36]
이제 nano를 사용해서 편집하겠습니다.
[10:41]
이 작업은 nano와 git, 그리고
[10:43]
Docker가 이미 설치되어 있다고 가정합니다.
[10:45]
README에서 언급했듯이 이것들은 필수 조건이며,
[10:47]
만약 설치되어 있지 않다면
[10:49]
리눅스 배포판에 따라
[10:50]
설치하실 수 있습니다.
[10:52]
이제 이 파일을 편집해보겠습니다.
[10:54]
.env 파일에는 주석으로
[10:59]
필요한 항목들이 표시되어 있습니다.
[11:01]
필수 항목들과 이 모든 변수들을
[11:03]
설정하는 방법을 설명하고 있습니다. n8n의 경우
[11:05]
보안을 위해 충분히 긴
[11:07]
임의의 영숫자 문자열을
[11:09]
설정하면 되고,
[11:11]
Supabase 보안 설정에서는
[11:12]
PostgreSQL 비밀번호와
[11:15]
Supabase 대시보드의 로그인 정보를
[11:17]
설정해야 합니다. 여기 링크들이 있는데
[11:19]
Supabase 셀프 호스팅 가이드로
[11:21]
연결됩니다. 이 가이드를 통해
[11:23]
JWT 시크릿, 익명 키, 서비스 롤 키를
[11:27]
아주 쉽게 설정할 수 있고
[11:29]
진행할 수 있습니다. 그리고
[11:31]
풀이나 테넌트 ID의 경우
[11:33]
원하는 숫자를 지정하면 됩니다.
[11:34]
예를 들어 1000같은 숫자로 설정하면 됩니다.
[11:37]
이 값들은 설정하기 쉽지만
[11:38]
제가 지금 설명드릴
[11:40]
Caddy 설정이 있습니다.
[11:42]
여기에는 우리가 사용할
[11:44]
모든 서브도메인이 있습니다.
[11:46]
제가 보여드리겠습니다. Hostinger나
[11:49]
다른 DNS 제공업체에서 설정한
[11:51]
모든 서브도메인의 주석을 해제하겠습니다.
[11:54]
AMA와 CXG는 사용하지 않을 거라
[11:57]
주석 해제하지 않을 겁니다.
[11:58]
Let's Encrypt 이메일은
[12:00]
본인의 이메일을 입력하면 됩니다.
[12:02]
저는 [email protected]로 하겠습니다.
[12:06]
호스트명의 경우
[12:08]
DNS 제공업체에서 설정한 서브도메인과
[12:11]
실제 도메인으로 변경해야 합니다.
[12:13]
예를 들어 n8n의 경우
[12:16]
yt-n8n.automator.ai로 설정했습니다.
[12:20]
잠시 후에
[12:21]
다른 것들도 설정하고 돌아오겠습니다.
[12:23]
자, 이제 모든 서브도메인이
[12:25]
클라우드 제공업체에 설정한 것과 동일합니다.
[12:28]
이제 Nano에서 파일을 저장하고 나가려면
[12:30]
몇 가지 명령어가 필요합니다.
[12:32]
먼저 Ctrl+X를 누르면
[12:36]
저장할지 물어보는데 Y를 입력하고
[12:38]
마지막으로 Enter를 누르면 됩니다.
[12:40]
다시 말씀드리면 Ctrl+X, Y, Enter입니다.
[12:44]
이제 내용을 보여드리진 않겠습니다.
[12:45]
다른 시크릿 키들도
[12:47]
이미 수정했기 때문입니다.
[12:48]
화면에는 전체 ENV가
[12:50]
출력되어 모든 설정이
[12:52]
제대로 적용되었는지 확인할 수 있습니다.
[12:55]
이제 Docker로 모든 것을
[12:57]
실행할 스크립트를 실행할 준비가 됐습니다.
[13:00]
README로 돌아가보면
[13:03]
이 명령어에는 여러 옵션이 있는데
[13:05]
GPU 유무나
[13:06]
CPU 모드 실행 여부에 따라
[13:09]
다른 프로필을 사용할 수 있습니다.
[13:12]
Lambda Labs나 AWS,
[13:15]
또는 Digital Ocean의
[13:17]
GPU 인스턴스처럼
[13:19]
NVIDIA GPU가 있는 클라우드 인스턴스라면
[13:21]
이 명령어를 실행하면 되는데,
[13:24]
Python 대신 Python3를 사용해야 할 수도 있습니다.
[13:26]
리눅스 배포판 대부분에서는
[13:28]
Python3를 명시해야 하는데
[13:30]
곧 보여드리겠습니다.
[13:32]
우리는 CPU 인스턴스만 있으므로
[13:35]
AMA 인스턴스를 CPU에서 실행하는
[13:38]
이 명령어를 실행하겠습니다. GPU가 없기 때문이죠.
[13:41]
이 명령어를 복사해서 돌아와서
[13:43]
붙여넣기 하면
[13:45]
Python을 찾을 수 없다고 나오는데
[13:47]
보통 이런 경우에는
[13:49]
Python3를 입력하여
[13:52]
실행하면 이제
[13:54]
슈퍼베이스 저장소를 가져오고
[13:56]
슈퍼베이스 컨테이너를 시작하는
[13:58]
전체 프로세스가 시작됩니다
[14:00]
CRX를 위한 설정들이
[14:01]
백그라운드에서 설정되고
[14:04]
이 스크립트가 많은 작업을
[14:06]
처리해줍니다
[14:07]
슈퍼베이스 컨테이너가 실행되고
[14:09]
잠시 후에 로컬 AI 스택을 위한
[14:11]
나머지 컨테이너들이
[14:13]
실행되는 것을 보실 수 있습니다
[14:15]
모든 것이 하나의 도커 컴포즈 네트워크로
[14:17]
구성되어 있어서 컨테이너들이
[14:19]
서로 통신할 수 있습니다
[14:21]
일부 컨테이너가 꽤 크기 때문에
[14:22]
시간이 좀 걸릴 것이고, LLM 모델을
[14:25]
가져오고 n8n 워크플로우를
[14:27]
임포트해야 하므로
[14:28]
잠시 멈추었다가 완료되면 돌아오겠습니다
[14:31]
몇 분 후에 모든 컨테이너가
[14:32]
실행되었고 로그는
[14:34]
이런 식으로 보일 것입니다
[14:36]
제 디지털오션 드롭렛에
[14:38]
약간의 문제가 있어서
[14:40]
빈 공간이 보이지만
[14:42]
여러분의 로그는
[14:43]
슈퍼베이스 컨테이너가 설치되고
[14:45]
실행되는 것을 보여줄 것이며
[14:47]
n8n, 오픈웹UI, 캐디 등
[14:50]
로컬 AI 패키지의 나머지 부분도
[14:52]
마찬가지입니다
[14:54]
실행 중인 모든 컨테이너를 보려면
[14:57]
docker ps 명령어를 사용하면
[14:58]
스택의 모든 컨테이너를
[15:00]
확인할 수 있으며 모두 실행 중인지
[15:02]
확인할 수 있습니다
[15:03]
중지되거나 재시작 중인 것이 있다면
[15:05]
살펴봐야 할
[15:07]
문제가 있을 수 있습니다
[15:09]
또한 Docker logs -f와
[15:12]
컨테이너 이름을 입력하면
[15:14]
해당 컨테이너의 모든 로그를
[15:15]
볼 수 있습니다
[15:17]
지금 캐디의 로그를 보고 있고
[15:20]
-f는 새로운 로그가
[15:21]
생성될 때마다 따라간다는 의미입니다
[15:24]
이제 브라우저로 가서
[15:26]
테스트해보겠습니다
[15:29]
새 탭을 열고 yt-nn.automator.doai를 입력하면
[15:34]
보시는 것처럼 n8n의
[15:36]
빈 회원가입 페이지가 나타납니다
[15:39]
yt-superb.automator.doai를 입력하면
[15:43]
로그인을 요청하는
[15:45]
대시보드가 나타나고, yt-openwebui도
[15:48]
잘 작동합니다
[15:50]
모든 것이 완벽하게 작동하고
[15:52]
외부 브라우저에서
[15:54]
제 컴퓨터로 접속할 수 있습니다
[15:57]
이 영상에서는 각 플랫폼의
[15:59]
사용법은 다루지 않을 것입니다
[16:01]
제 채널의 다른 영상들이
[16:02]
이 영상의 설명란에
[16:03]
링크되어 있으니
[16:05]
n8n과 로컬 에이전트 생성 방법에
[16:07]
대해 자세히 알아보시기 바랍니다
[16:10]
이번에는 클라우드에서
[16:11]
로컬 AI 스택을 설정하는 데
[16:14]
초점을 맞췄고 성공했습니다
[16:17]
이것으로 클라우드에
[16:19]
로컬 AI 설정을 배포하는 가장 빠른 방법을
[16:22]
보여드렸습니다
[16:25]
로컬 AI 패키지에 대해
[16:27]
계속해서 새로운 서비스를
[16:30]
추가하고 개선하며
[16:31]
로컬 AI 에이전트 생성 가이드와 같은
[16:34]
더 많은 콘텐츠를 제공할 예정입니다
[16:36]
이 콘텐츠가 도움이 되었고
[16:39]
앞으로도
[16:40]
로컬 AI와 AI 에이전트에 관심이 있다면
[16:43]
좋아요와 구독을
[16:45]
부탁드리며
[16:47]
다음 영상에서 만나뵙겠습니다