20분 이내에 개인용 로컬 AI 클라우드 스택 구축하기

채널 아이콘
Cole Medin 구독자 78,300명

요약

영상은 로컬 AI 패키지를 클라우드에 손쉽게 배포하는 방법을 단계별로 설명합니다. 클라우드 인스턴스를 활용하면 자원 부담 없이 24시간 운영이 가능하며, 팀원들과의 공유도 용이해지는 장점이 강조됩니다. DigitalOcean과 같은 클라우드 제공업체에서 인스턴스를 생성하고, 방화벽 및 DNS 설정을 마친 후 Docker를 통해 모든 서비스를 구성하는 과정을 자세히 안내합니다. 마지막으로, 배포된 서비스의 접근성과 로그 확인 방법을 테스트하며 실제 적용에 필요한 자신감을 심어줍니다.

주요 키워드

로컬 AI 클라우드 Docker DigitalOcean 방화벽 DNS 서브도메인 환경 변수 n8n caddy

하이라이트

  • 🔑 로컬 AI 패키지를 클라우드에 배포하는 쉽고 직관적인 단계별 가이드임.
  • ⚡️ 개인 컴퓨터 자원 소모를 줄이고 24시간 운영 가능한 환경 구축의 이점을 강조함.
  • 🌟 DigitalOcean 등 클라우드 플랫폼을 이용해 인스턴스 생성 및 설정, 방화벽과 DNS 구성 방법을 체계적으로 설명함.
  • 🚀 Docker와 Docker Compose를 활용하여 다양한 AI 서비스를 하나의 네트워크로 통합하는 방법을 제시함.
  • 📌 실제 서브도메인 접속 테스트와 로그 점검을 통해 배포 후 상태를 검증하는 절차를 상세히 안내함.

용어 설명

로컬 AI

개인 서버 또는 컴퓨터 내에서 구동되는 인공지능 환경으로, 클라우드 배포 시에도 개인화된 환경을 유지하는 개념임.

Docker

컨테이너 기반의 가상화 플랫폼으로, 여러 서비스를 격리된 환경에서 효율적으로 실행할 수 있도록 지원함.

caddy

HTTPS와 TLS 관리가 가능한 웹 서버로, 안전한 엔드포인트 접근을 위해 사용됨.

n8n

워크플로우 자동화 도구로, 다양한 서비스들을 연계하고 자동화하는데 활용되는 툴임.

Supabase

데이터베이스 및 백엔드 서비스 플랫폼으로, 로컬 AI 환경에서 데이터 관리를 지원함.

DNS 레코드

도메인 네임 시스템에서 특정 서브도메인을 인스턴스에 연결하기 위해 설정하는 기록임.

[00:00:00] 소개 및 개요

로컬 AI 패키지와 클라우드 배포의 필요성 및 이점을 간략히 소개합니다. 영상의 전체 구성과 목표를 제시합니다.

로컬 AI 패키지는 LLM, 데이터베이스, 자동화 도구, 웹 검색 등을 단일 스택으로 무료로 실행할 수 있는 가장 쉬운 방법입니다.
클라우드 배포의 장점으로는 팀원들과의 공유, 24/7 운영, 추가 하드웨어 리소스 활용이 가능하다는 점이 있습니다.
[00:00:25] 클라우드 배포 이유 및 인스턴스 설정

로컬 AI를 클라우드에 배포하는 이유와 그 장점을 설명합니다. DigitalOcean을 이용한 인스턴스 생성 절차가 시작됩니다.

로컬 AI 패키지는 GitHub에서 제공되며, n8n, Supabase, Ollama, Open WebUI 등 다양한 서비스를 포함하고 있습니다.
Caddy가 새롭게 추가되어 HTTPS와 TLS를 통한 보안 엔드포인트 관리가 가능해졌습니다.
클라우드 환경에서 어떤 리눅스 머신에서도 작동하는 방식으로 로컬 AI를 구축하는 방법을 설명합니다.
Digital Ocean을 사용한 로컬 AI 패키지 배포를 시연하며, 이는 비용 효율적인 CPU 인스턴스 옵션을 제공합니다.
다양한 GPU 인스턴스 플랫폼(Lambda Labs, Vultr, Paperspace, AWS 등)의 옵션들을 소개하고 각각의 장단점을 설명합니다.
Tensor.do, RunPod, Novita 등 일부 플랫폼의 제한사항과 구현 시 발생할 수 있는 문제점들을 설명합니다.
Digital Ocean에서 8GB RAM, 2 CPU를 갖춘 월 42달러의 베이직 인스턴스 생성 과정을 시작합니다.
대형 LLM 모델 사용을 위해서는 GPU가 필요하며 상당한 비용이 발생합니다. 많은 사람들이 비용 절감을 위해 CPU 인스턴스를 선택하고 LLaMA는 다른 곳에서 호스팅하거나 OpenRouter API를 사용합니다.
Docker가 미리 설치된 Ubuntu 리눅스 이미지를 선택하고, 보안을 위해 패스워드를 설정하며 호스트 이름을 지정합니다.
인스턴스 생성 후 root 권한으로 접속하여 필요한 기본 설정을 진행합니다. 방화벽 설정과 DNS 레코드 설정이 필요합니다.
[00:07:00] 방화벽 및 DNS 설정

클라우드 인스턴스에 필요한 방화벽 규칙과 DNS 레코드 설정 방법을 상세히 안내합니다. 서브도메인 설정도 포함되어 있습니다.

Supabase, Flowise, OpenWebUI, n8n 등의 서비스를 위한 포트를 개방하고, CRXng와 Ollama는 보안상의 이유로 기본적으로 외부에 노출하지 않습니다.
방화벽 규칙을 모두 적용하고, 모든 설정에는 관리자 권한이 필요함을 설명합니다.
DNS 레코드 설정 방법을 설명합니다. Hostinger를 예시로 들어 Digital Ocean의 IPv4 주소를 사용하여 서브도메인을 설정하는 과정을 보여줍니다.
여러 서비스(n8n, supabase, openwebui, flowise 등)에 대한 서브도메인을 설정하는 방법을 설명합니다.
[00:09:00] 리포지토리 클론 및 환경 변수 구성

GitHub에서 로컬 AI 패키지 리포지토리를 클론한 후 .env 파일을 복사 및 수정하여 환경 변수를 설정합니다. 필수 변수 설정 과정을 다룹니다.

기본 설치 단계로 넘어가 git clone을 실행하고 저장소를 복제하는 과정을 시작합니다.
환경 변수 설정을 위해 .env.example 파일을 복사하고 편집하는 방법을 설명합니다. 이를 위해서는 nano, git, Docker가 필요함을 언급합니다.
필수 환경 변수 설정 방법에 대해 설명합니다. n8n과 Supabase의 보안 설정, 로그인 정보, JWT 시크릿 등의 설정 방법을 자세히 안내합니다.
[00:11:30] Docker 컨테이너 실행

Docker를 사용하여 모든 AI 관련 서비스를 하나의 네트워크로 실행합니다. 각 컨테이너의 배포 및 초기 설정 과정을 설명합니다.

Caddy 설정에서 서브도메인 구성하는 방법을 설명합니다. Hostinger나 다른 DNS 제공업체에서 설정한 서브도메인을 연결하고 Let's Encrypt 이메일을 설정하는 과정을 보여줍니다.
Nano 에디터에서 파일을 저장하고 나가는 방법(Ctrl+X, Y, Enter)을 설명하고, 전체 ENV 설정이 제대로 적용되었는지 확인하는 과정을 안내합니다.
Docker 실행 스크립트의 다양한 옵션에 대해 설명합니다. GPU/CPU 모드에 따른 실행 방법과 클라우드 환경에서의 Python3 사용에 대해 안내합니다.
Python3 명령어로 스크립트를 실행하여 슈퍼베이스 저장소를 가져오고 컨테이너를 시작합니다.
[00:14:00] 테스트 및 최종 검증

서브도메인 접속 테스트와 로그 확인을 통해 서비스 상태를 검증합니다. 모든 구성 요소가 정상적으로 작동함을 확인한 후 마무리합니다.

백그라운드에서 CRX 설정이 이루어지고, 도커 컴포즈 네트워크로 모든 컨테이너가 서로 통신할 수 있게 됩니다.
설치가 완료되어 모든 컨테이너가 정상적으로 실행되며, docker ps와 docker logs 명령어로 상태를 확인할 수 있습니다.
브라우저에서 각각의 서비스(n8n, 슈퍼베이스, 오픈웹UI)에 접속하여 정상 작동을 확인합니다.
제가 로컬 AI 패키지에 대해
제 채널에서 많이 다뤘는데요,
이것은 단연코 모든 로컬 AI를
무료로 단일 스택에서 실행하는
가장 쉬운 방법입니다. LLM, 데이터베이스,
자동화 도구, 로컬 웹 검색,
사용자 인터페이스까지 모두 포함되어 있죠.
이 패키지를 사용하면 매우 쉽게
클라우드에서 로컬 AI 환경을
필요할 때마다 구축할 수 있습니다.
로컬 AI라 하더라도 항상
자신의 컴퓨터에서 실행하고 싶지 않을 수 있죠.
내부 팀원들처럼 다른 사람들이
로컬 AI 설정을 사용하길 원하거나,
24/7 실행이 필요한데
컴퓨터 자원을 계속해서
잡아먹는 것을 원치 않을 수 있습니다.
또는 현재 가지고 있지 않은
하드웨어에 접근하고 싶을 수도 있고,
이러한 모든 이유가 복합적으로 작용할 수 있죠.
다행히도 로컬 AI 스택을
클라우드에 배포하면
이 모든 문제를 해결할 수 있습니다.
그리고 클라우드 인스턴스를
직접 관리하는 한 여전히 로컬로 간주됩니다.
이 영상에서는 단계별로
로컬 AI 패키지를 가져와서
여러분만의 프라이빗 클라우드 인스턴스에
배포하는 방법을 보여드리겠습니다.
이렇게 하면 자신의 컴퓨터에만
국한되지 않고 로컬 AI의 장점을 누릴 수 있죠.
게다가 로컬 AI 패키지에
새로운 기능이 추가되어
이 과정이 매우 쉬워졌습니다.
이것은 매우 직관적인 가이드이며,
클라우드 제공업체와
하드웨어 요구사항도 다룰 것입니다.
로컬 AI에서 중요한 고려사항이니까요.
여기에 더해서 n8n이나
Open WebUI같은 서비스를 위한 서브도메인
설정 방법도 알려드릴 예정이라
완벽한 엔드투엔드 가이드가 될 것입니다.
이 로컬 AI 패키지의 GitHub 저장소
링크는 영상 설명란에 있습니다.
이 패키지의 장점은
여기 보이는 모든 로컬 AI 서비스를
하나로 묶어서
설치하고 구성할 수 있게
리드미에 설명된 몇 가지 단계로
매우 간단하게 만들었다는 점입니다.
모든 것을 쉽게 시작할 수 있죠.
제 채널의 이전 영상에서
여기 링크된 영상을 보시면
이 단계들을 따라 개인 컴퓨터에
설치하는 방법을 보여드렸는데,
이제는 클라우드에서 해보겠습니다.
원래 n8n 팀이 만든 이 패키지를
제가 확장해서 이 모든 서비스를 포함시켰습니다.
n8n, Supabase, Ollama, Open WebUI,
Flowise, Quadrant가 있고,
최근에는 CRX-NG를 추가했는데,
이는 로컬 프라이빗 웹 검색을 위한 것이며,
캐싱을 위한 Redis도 포함되어 있습니다.
그리고 이 영상에서 중요한 것은
Caddy를 추가했다는 점인데,
이는 HTTPS와 TLS를 관리해주는 도구입니다.
덕분에 클라우드에서 실행되는
모든 서비스에 대해
보안 엔드포인트를 가질 수 있습니다.
예를 들어, n8n.yourdomain.com처럼
클라우드에서 안전하게 호스팅되는
n8n 인스턴스에 접근할 수 있죠.
이것이 Caddy의 중요한 역할이며,
이제 모든 단계를
자세히 살펴보도록 하겠습니다.
이것을 어떤 리눅스 머신에서도
클라우드에서 작동하는 방식으로
구축할 수 있습니다.
Digital Ocean이나 Lambda Labs, AWS를 사용하든
자체 서버나
데이터센터를 가지고 있든
이 단계들을 따르실 수 있습니다.
가능한 한 일반적으로 설명하여
로컬 AI를 어디에 구축하든
적용할 수 있도록 했습니다.
이 영상에서는 Digital Ocean을 사용하여
로컬 AI 패키지를 배포할 것입니다.
이 영상은 광고가 아니며
스폰서도 없습니다. 제가 직접 사용하고
일반적으로 추천하기 때문에
여기서 다루는 것입니다.
CPU 인스턴스에 대해 가장 좋은
옵션을 제공합니다.
전용 GPU가 필요한 대규모
로컬 LLM을 실행하지 않는다면
Digital Ocean이 제가 본 것 중
최고의 선택입니다. 또한
Linode로 알려진 Akami Cloud도
CPU 인스턴스의 좋은 대안입니다.
GPU 인스턴스 플랫폼에 대해
간단히 말씀드리자면,
본인의 필요와 예산에 맞춰
직접 조사해보시길 바랍니다.
Lambda Labs, Vultr가 있고
Digital Ocean의 일부이지만 독립적인
플랫폼인 Paperspace,
그리고 더 큰 규모로는
당연히 AWS, Google Cloud,
Microsoft Azure가 있습니다.
이 모든 플랫폼들은
로컬 AI 패키지를 배포할 수 있는
GPU 인스턴스를 제공하며,
Digital Ocean과 동일한 방식으로
설치가 가능합니다.
잘 작동하지 않는 플랫폼도
몇 가지 있는데, 이것들도
빠르게 설명해드리겠습니다.
여러분이 사용하기 어려운
플랫폼을 선택하지 않도록 말씀드리자면
Tensor.do는 저렴한 GPU를 제공하지만
로컬 AI 패키지에 필요한
모든 포트를 열 수 없습니다.
또한 RunPod와
Novita 같은 플랫폼들도 있는데
이들은 좋은 서비스지만
모든 것을 컨테이너로 배포하며
컨테이너 안에 컨테이너를
쉽게 실행할 수 없기 때문에
로컬 AI 패키지를 구동하는 데
더 많은 작업이 필요합니다.
이것이 제가 Digital Ocean을
선택한 이유이며, GPU 드롭렛도
제공하므로 더 강력한 성능이
필요한 로컬 LLM을 위해
이제 인스턴스를 만들어보겠습니다.
Digital Ocean에 새 프로젝트를 만들고
오른쪽 상단의 Create를
클릭한 다음 Droplets를 선택합니다.
이 데모의 비용을 낮추기 위해
CPU 인스턴스를 생성할 것입니다.
전용 GPU는 없습니다. 지역을 선택하고
월 42달러짜리 인스턴스를
선택하겠습니다. 8GB RAM과
2개의 CPU를 제공하는데,
대형 로컬 LLM을 실행하지 않는 한
전체 로컬 AI 패키지를 실행하기에 충분합니다.
7-8억 개의 파라미터보다 큰
LLM을 실행하려면
전용 GPU가 필요할 것입니다.
상당한 비용이 더 들겠지만,
이는 필수적입니다. 만약
14B, 32B 또는 70B 파라미터의 대형 LLM을 사용하고 싶다면요.
하지만 많은 사람들이
CPU 인스턴스를 선택합니다. 비용이
저렴하기 때문이죠.
그리고 LLaMA는 다른 곳에서 호스팅하거나
OpenRouter 같은 API를 사용합니다.
최소한 나머지 스택은 프라이빗하고 로컬이니까요.
이런 서비스들에 대해서는
호스팅용 서버 비용 외에는
지불할 필요가 없습니다.
이것이 우리가 지금 하려는 것이고,
물론 여러분이 자체 서버가 있고
GPU가 있다면 더할 나위 없겠죠.
이제 이미지를 선택할 건데,
Docker가 미리 설치된 것으로 할 거예요.
Ubuntu는 가장 인기 있는 리눅스 배포판이라
여기 이걸 선택하겠습니다.
다른 서비스 제공자를 사용하시는 분들도
Ubuntu 리눅스 인스턴스를
찾을 수 있을 거예요.
제가 보여드릴 모든 명령어를
동일하게 따라하실 수 있습니다.
인증 방식으로는
SSH 키가 더 안전하지만,
간단하게 하기 위해
패스워드를 설정하겠습니다.
패스워드를 설정하고,
호스트 이름은 'YouTube-Local-AI-Package'로 하겠습니다.
이제 이 부분은 카메라를 끄고
패스워드를 설정한 뒤 드롭렛 생성을 클릭하고
인스턴스가 준비되면 돌아오겠습니다.
좋습니다.
이제 인스턴스가 생성되었으니
접속해서 액세스로 가서
root 권한으로 드롭렛 콘솔을 실행하겠습니다.
권한이 필요한 명령어들을
실행해야 하기 때문이죠.
root로 실행하면
인스턴스에 접속한 후에는
Local AI 패키지 저장소를 가져오기 전에
기본 설정을 위한
몇 가지 단계가 필요합니다.
README로 돌아가보면
클라우드 배포 시 필요한
추가 작업들이
전용 섹션에 있습니다.
방화벽을 열고
DNS 레코드를 설정해야 하거든요.
지금부터 이 과정을
설명해드리겠습니다.
방화벽 설정은 이미 했는데
모든 명령어를 일일이
보여드리진 않겠습니다.
방화벽 규칙을 활성화하고
Local AI 서비스들을 위한 포트를 열어야 합니다.
Supabase, Flowise,
OpenWebUI, n8n 등을 위해서죠.
그리고 CRXng나 Ollama를
외부에 노출하고 싶다면 이 명령어들을 실행하면 됩니다.
기본적으로 이렇게 하지 않는 이유는
CRXng와 Ollama는
다른 서비스들과 달리 비밀번호로 보호되지 않아서
누구나 사용할 수 있게 되기 때문입니다.
보통은 이것들을 프라이빗하게 유지하고
이 포트들은 열지 않습니다.
다른 Local AI 서비스들은
인스턴스 내에서 접근할 수 있죠.
로컬호스트를 통해서요.
하지만 외부 인터넷에서는
CRXng나 Ollama에
접근할 수 없게 됩니다.
방화벽 규칙을 모두 설정한 후에는 ufw reload를 실행하면
그러면 모든 규칙이 적용됩니다.
이 모든 작업에서 명심해야 할 점은
관리자 권한이 필요하다는 것입니다.
방화벽 설정은 여기까지이고, 이제
DNS 레코드를 설정해야 합니다. 이 과정은
DNS 제공업체에 관계없이 거의 동일합니다.
저는 Hostinger를 사용하고 있는데,
스폰서를 받은 것이 아니라
제가 automator.ai의 DNS로
사용하고 있기 때문입니다. 여러분은
Digital Ocean으로 가서 IPv4 주소를
복사한 다음, 이것을
대상 IP 주소가 가리키는 곳에
붙여넣기 하면 됩니다.
그리고 A 레코드 타입으로 설정하고
이름 부분에는 사용하고자 하는
서브도메인을 입력합니다.
예를 들어
yt-n8n.automator.ai를 Digital Ocean
드롭렛의 n8n 인스턴스로 연결하려면
이렇게 설정합니다. 이름을
yt-n8n으로 지정하면 이것이 서브도메인이 됩니다.
이 레코드를 추가하고 확인을 클릭한 다음
다른 서비스들에 대해서도
동일한 작업을 수행할 수 있습니다.
yt-supabase를 추가하고
그 다음 openwebui도 추가합니다.
마지막으로 현재로서는
Flowise를 추가할 수 있고, CRX나 Ollama,
또는 Local AI 패키지에 추가하고 싶은
다른 서비스들에 대해서도
동일하게 설정할 수 있습니다. 이것으로
DNS 설정은 완료되었고, 이제
클라우드 배포를 위한 추가 단계도
모두 마쳤습니다. 이제 위로 올라가서
기본 설치 단계의 모든 작업을
실행할 수 있습니다. 먼저
git clone 명령어를 복사하겠습니다.
인스턴스를 다시 열고 이것을 붙여넣어
저장소를 복제한 다음
해당 디렉토리로 이동하겠습니다.
이제 ls 명령어로 보이는 모든 것이
GitHub 저장소의 루트에 있는
파일들입니다. 제가 지금 해야 할 추가 단계가 하나 있는데,
현재 모든 것이 feature 브랜치에 있기 때문에
브랜치를 변경해야 합니다.
여러분은 이 작업을 하실 필요가 없습니다.
이 영상을 보실 때쯤이면
모든 것이 main 브랜치에 있을 것이기 때문입니다.
이제 Caddy와 같은 모든 설정이
준비되어 있습니다. 지금은 자세히 설명하지 않겠지만
이 튜토리얼을 간단명료하게 유지하고
중요한 부분에 집중하고 싶습니다.
관심이 있으시다면 나중에
자세히 살펴보실 수 있습니다. 이제
환경 변수를 설정하겠습니다.
모든 것에 대한 예시가
.env.example 파일에 있습니다.
우리가 해야 할 일은 example 파일을 복사하는 것입니다.
보기 쉽게 확대해서 보여드리겠습니다.
새로운 .env 파일로
복사해야 하는데,
이렇게 하면 .env 파일의 내용이
.env.example과 동일하게 됩니다.
이제 nano를 사용해서 편집하겠습니다.
이 작업은 nano와 git, 그리고
Docker가 이미 설치되어 있다고 가정합니다.
README에서 언급했듯이 이것들은 필수 조건이며,
만약 설치되어 있지 않다면
리눅스 배포판에 따라
설치하실 수 있습니다.
이제 이 파일을 편집해보겠습니다.
.env 파일에는 주석으로
필요한 항목들이 표시되어 있습니다.
필수 항목들과 이 모든 변수들을
설정하는 방법을 설명하고 있습니다. n8n의 경우
보안을 위해 충분히 긴
임의의 영숫자 문자열을
설정하면 되고,
Supabase 보안 설정에서는
PostgreSQL 비밀번호와
Supabase 대시보드의 로그인 정보를
설정해야 합니다. 여기 링크들이 있는데
Supabase 셀프 호스팅 가이드로
연결됩니다. 이 가이드를 통해
JWT 시크릿, 익명 키, 서비스 롤 키를
아주 쉽게 설정할 수 있고
진행할 수 있습니다. 그리고
풀이나 테넌트 ID의 경우
원하는 숫자를 지정하면 됩니다.
예를 들어 1000같은 숫자로 설정하면 됩니다.
이 값들은 설정하기 쉽지만
제가 지금 설명드릴
Caddy 설정이 있습니다.
여기에는 우리가 사용할
모든 서브도메인이 있습니다.
제가 보여드리겠습니다. Hostinger나
다른 DNS 제공업체에서 설정한
모든 서브도메인의 주석을 해제하겠습니다.
AMA와 CXG는 사용하지 않을 거라
주석 해제하지 않을 겁니다.
Let's Encrypt 이메일은
본인의 이메일을 입력하면 됩니다.
저는 [email protected]로 하겠습니다.
호스트명의 경우
DNS 제공업체에서 설정한 서브도메인과
실제 도메인으로 변경해야 합니다.
예를 들어 n8n의 경우
yt-n8n.automator.ai로 설정했습니다.
잠시 후에
다른 것들도 설정하고 돌아오겠습니다.
자, 이제 모든 서브도메인이
클라우드 제공업체에 설정한 것과 동일합니다.
이제 Nano에서 파일을 저장하고 나가려면
몇 가지 명령어가 필요합니다.
먼저 Ctrl+X를 누르면
저장할지 물어보는데 Y를 입력하고
마지막으로 Enter를 누르면 됩니다.
다시 말씀드리면 Ctrl+X, Y, Enter입니다.
이제 내용을 보여드리진 않겠습니다.
다른 시크릿 키들도
이미 수정했기 때문입니다.
화면에는 전체 ENV가
출력되어 모든 설정이
제대로 적용되었는지 확인할 수 있습니다.
이제 Docker로 모든 것을
실행할 스크립트를 실행할 준비가 됐습니다.
README로 돌아가보면
이 명령어에는 여러 옵션이 있는데
GPU 유무나
CPU 모드 실행 여부에 따라
다른 프로필을 사용할 수 있습니다.
Lambda Labs나 AWS,
또는 Digital Ocean의
GPU 인스턴스처럼
NVIDIA GPU가 있는 클라우드 인스턴스라면
이 명령어를 실행하면 되는데,
Python 대신 Python3를 사용해야 할 수도 있습니다.
리눅스 배포판 대부분에서는
Python3를 명시해야 하는데
곧 보여드리겠습니다.
우리는 CPU 인스턴스만 있으므로
AMA 인스턴스를 CPU에서 실행하는
이 명령어를 실행하겠습니다. GPU가 없기 때문이죠.
이 명령어를 복사해서 돌아와서
붙여넣기 하면
Python을 찾을 수 없다고 나오는데
보통 이런 경우에는
Python3를 입력하여
실행하면 이제
슈퍼베이스 저장소를 가져오고
슈퍼베이스 컨테이너를 시작하는
전체 프로세스가 시작됩니다
CRX를 위한 설정들이
백그라운드에서 설정되고
이 스크립트가 많은 작업을
처리해줍니다
슈퍼베이스 컨테이너가 실행되고
잠시 후에 로컬 AI 스택을 위한
나머지 컨테이너들이
실행되는 것을 보실 수 있습니다
모든 것이 하나의 도커 컴포즈 네트워크로
구성되어 있어서 컨테이너들이
서로 통신할 수 있습니다
일부 컨테이너가 꽤 크기 때문에
시간이 좀 걸릴 것이고, LLM 모델을
가져오고 n8n 워크플로우를
임포트해야 하므로
잠시 멈추었다가 완료되면 돌아오겠습니다
몇 분 후에 모든 컨테이너가
실행되었고 로그는
이런 식으로 보일 것입니다
제 디지털오션 드롭렛에
약간의 문제가 있어서
빈 공간이 보이지만
여러분의 로그는
슈퍼베이스 컨테이너가 설치되고
실행되는 것을 보여줄 것이며
n8n, 오픈웹UI, 캐디 등
로컬 AI 패키지의 나머지 부분도
마찬가지입니다
실행 중인 모든 컨테이너를 보려면
docker ps 명령어를 사용하면
스택의 모든 컨테이너를
확인할 수 있으며 모두 실행 중인지
확인할 수 있습니다
중지되거나 재시작 중인 것이 있다면
살펴봐야 할
문제가 있을 수 있습니다
또한 Docker logs -f와
컨테이너 이름을 입력하면
해당 컨테이너의 모든 로그를
볼 수 있습니다
지금 캐디의 로그를 보고 있고
-f는 새로운 로그가
생성될 때마다 따라간다는 의미입니다
이제 브라우저로 가서
테스트해보겠습니다
새 탭을 열고 yt-nn.automator.doai를 입력하면
보시는 것처럼 n8n의
빈 회원가입 페이지가 나타납니다
yt-superb.automator.doai를 입력하면
로그인을 요청하는
대시보드가 나타나고, yt-openwebui도
잘 작동합니다
모든 것이 완벽하게 작동하고
외부 브라우저에서
제 컴퓨터로 접속할 수 있습니다
이 영상에서는 각 플랫폼의
사용법은 다루지 않을 것입니다
제 채널의 다른 영상들이
이 영상의 설명란에
링크되어 있으니
n8n과 로컬 에이전트 생성 방법에
대해 자세히 알아보시기 바랍니다
이번에는 클라우드에서
로컬 AI 스택을 설정하는 데
초점을 맞췄고 성공했습니다
이것으로 클라우드에
로컬 AI 설정을 배포하는 가장 빠른 방법을
보여드렸습니다
로컬 AI 패키지에 대해
계속해서 새로운 서비스를
추가하고 개선하며
로컬 AI 에이전트 생성 가이드와 같은
더 많은 콘텐츠를 제공할 예정입니다
이 콘텐츠가 도움이 되었고
앞으로도
로컬 AI와 AI 에이전트에 관심이 있다면
좋아요와 구독을
부탁드리며
다음 영상에서 만나뵙겠습니다