복잡한 AI 도구에 시간을 낭비하지 마세요 - Flowise v3 출시

채널 아이콘
Leon van Zyl 구독자 59,400명

요약

Flowise v3는 UI 개선부터 에이전트 워크플로우 빌딩까지 전반적인 품질 향상을 제공하는 오픈소스 no-code AI 플랫폼입니다. 주요 기능으로는 AI 기능을 중심에 둔 설계, 전용 문서 스토어를 통한 지식 베이스 관리, 다양한 메모리 및 공유 상태 옵션이 있습니다. 로컬 설치와 무료 클라우드 환경을 모두 지원하며, Apache 2 라이선스 덕분에 기업 내 셀프호스팅과 확장도 용이합니다. 이 튜토리얼에서는 설치부터 챗봇 및 멀티 에이전트 시스템 구축까지 Flowise 사용법을 단계별로 안내합니다.

주요 키워드

Flowise No-code 플랫폼 Agent flows v2 LLM 노드 Human-in-the-loop Document store Apache 2 라이선스 메모리 유형 공유 상태 플로우 실행 기록

하이라이트

  • 🔑 Flowise v3는 UI와 에이전트 시스템 구축 워크플로에 대대적인 품질 향상을 도입했습니다.
  • 🚀 No-code 플랫폼으로 챗봇부터 멀티 에이전트 시스템까지 코드 작성 없이 손쉽게 개발할 수 있습니다.
  • 📌 AI 기능을 중심에 둔 설계로 에이전트 간 협업 및 복잡한 태스크 처리가 간편해졌습니다.
  • 💾 전용 문서 스토어를 통해 지식 베이스를 유연하게 추가·제거하고 업데이트할 수 있습니다.
  • 🔄 Apache 2 라이선스로 완전 오픈소스, 셀프호스팅·기업용 무료 배포가 가능합니다.
  • ⚙️ npm 설치 명령만으로 로컬 환경에 Flowise를 빠르게 설치해 무제한 플로우를 무료로 운영할 수 있습니다.
  • 🛠️ 에이전트 플로우 v2는 챗 플로우와 기존 에이전트 기능을 통합해 단일 워크플로로 모든 작업을 처리합니다.
  • 🎯 다양한 메모리 유형과 공유 상태 기능으로 컨텍스트 제어와 토큰 비용 최적화가 가능합니다.
  • 📊 실행 기록 메뉴에서 과거 실행 내역, 토큰 사용량, 처리 시간 등 세부 정보를 확인해 디버깅할 수 있습니다.

용어 설명

Flowise

코딩 없이 AI 기반 솔루션(챗봇·에이전트 등)을 설계·구축할 수 있는 오픈소스 플랫폼

No-code 플랫폼

프로그래밍 없이 시각적 인터페이스로 애플리케이션을 개발하도록 지원하는 환경

Agent flows v2

챗 플로우와 기존 에이전트를 통합해 단일 워크플로로 다중 에이전트 시스템을 구성하는 기능

LLM 노드

대형 언어 모델(LLM) 연산을 수행하는 노드로, 텍스트 생성·분류·변환 등에 사용

Human-in-the-loop

AI 워크플로에 사용자의 개입 단계를 포함해 의사결정·검토 과정을 추가하는 기능

Document store

지식 베이스를 저장·관리하고 AI 에이전트에서 참조할 수 있도록 지원하는 전용 기능

Apache 2 라이선스

자유로운 사용·수정·배포를 허가하며 셀프호스팅을 가능하게 하는 오픈소스 라이선스

공유 상태(Shared state)

워크플로 전체 노드가 접근·수정을 공유할 수 있는 글로벌 상태 관리 기능

[00:00:00] 개요: Flowise v3 출시 및 주요 개선

Flowise v3가 출시되며 UI와 에이전트 시스템 구축 워크플로 전반에 품질 향상이 적용되었습니다. 다양한 에이전트 유형(챗봇, 멀티 에이전트, 연구용 에이전트 등)을 no-code로 지원합니다. 튜토리얼에서 다룰 전체 내용을 간략히 안내합니다.

Flowwise 버전 3의 새로운 기능들과 개선점을 소개하며, AI 기반 솔루션 구축을 위한 노코드 플랫폼으로서의 강력한 기능들을 설명합니다.
Flowwise와 N8N, Make.com, Zapier 같은 다른 자동화 도구들과의 차이점을 설명하며, Flowwise가 AI 기능을 중심으로 설계된 점을 강조합니다.
[00:00:34] 타 플랫폼 비교: N8N·make.com·Zapier

Flowise는 AI 기능을 중심에 두고 설계된 반면 N8N, make.com, Zapier는 워크플로우 자동화 도구에 AI를 후속 추가한 형태입니다. 에이전트 간 협업, 지식 베이스 연동, 인간 개입 기능이 더 직관적입니다. 향후 이들과의 상세 비교 영상을 예고합니다.

Flowwise의 오픈소스 특성과 Apache 2 라이선스를 통한 무료 셀프 호스팅 가능성을 설명하고, 다른 플랫폼들의 라이선스 모델과 비교합니다.
[00:01:29] 오픈소스 라이선스와 무료 셀프호스팅

Flowise는 Apache 2 라이선스를 적용해 상업적 무료 사용과 셀프호스팅이 가능합니다. make.com은 유료 서비스, N8N은 Fair Use 라이선스를 적용해 대규모 프로젝트에는 제약이 있습니다. GitHub 리포지토리와 라이선스 정책을 확인합니다.

실제 프로젝트에서 Flowwise와 N8N을 함께 사용하는 경험을 공유하며, 각 도구의 강점을 설명합니다.
[00:02:27] 설치 및 시작: 클라우드·로컬 환경

Flowise Cloud 무료 가입 시 플로우 2개, 예측 100회, 스토리지 및 고급 기능을 제공합니다. 로컬 설치는 Node.js 설치 후 npm 명령으로 간단히 세팅할 수 있어 무제한 플로우를 무료로 운영할 수 있습니다.

Flowwise 튜토리얼 시리즈 계획을 안내하고, Flowwise Cloud 가입 방법과 무료 플랜의 기본 기능들을 소개합니다.
FlowWise의 무료 티어 기능을 설명하며, 하나 또는 여러 에이전트를 추가할 수 있는 워크플로우와 월 100개 예측, 저장소 및 평가 메트릭스 등의 고급 기능을 제공한다고 소개합니다.
FlowWise가 오픈소스라는 점을 강조하며, 로컬 머신에 설치하여 무료로 무제한 플로우를 생성할 수 있는 방법을 설명하기 시작합니다.
Node.js 설치부터 시작하여 FlowWise 설치 과정을 단계별로 설명합니다. npm 명령어를 사용한 설치 방법과 로컬호스트 3000 포트를 통한 접속 방법을 안내합니다.
[00:04:05] 대시보드 탐색: 챗 플로우 vs 에이전트 플로우

로그인 후 왼쪽 메뉴에서 Chat Flows(챗봇용 워크플로)와 Agent Flows(에이전트 워크플로)로 전환합니다. 과거 실행 기록, 인간 개입 워크플로, 어시스턴트 생성, 마켓플레이스, 커스텀 툴, 자격증명, 전역 변수, 문서 스토어 등 주요 메뉴를 살펴봅니다.

FlowWise 최초 접속 시 사용자 정보 입력이 필요하며, 이 정보는 네트워크로 전송되지 않고 로컬 인스턴스 보호용으로만 사용된다고 설명합니다.
FlowWise 대시보드 탐색 방법을 소개하며, 좌측 메뉴에서 채팅 플로우와 에이전트 플로우를 전환할 수 있다고 설명합니다.
FlowWise v3에서 출시된 에이전트 플로우 v2가 기존 채팅 플로우와 에이전트 플로우 v1의 모든 기능을 포함하며 더 많은 기능을 제공한다고 강조합니다.
[00:05:23] 에이전트 플로우 v2 소개

v3에서 새롭게 릴리스된 Agent Flows v2는 챗 플로우 기능 전부와 기존 에이전트 플로우 기능을 통합했습니다. 간단한 챗봇부터 복잡한 멀티 에이전트 시스템까지 하나의 워크플로로 구현할 수 있습니다. 시리즈 대부분은 이 모드로 진행합니다.

실행 메뉴를 통한 플로우 실행 기록 확인과 어시스턴트 기능을 통한 간단한 AI 에이전트 생성 방법을 소개합니다.
[00:06:05] 지원 기능 및 마켓플레이스 활용

Assistance 메뉴에서 간단한 폼으로 AI 에이전트를 즉시 생성합니다. Marketplace에서 다른 사용자가 만든 예제 에이전트를 복사해 수정할 수 있습니다. Custom Tools, Credentials(API 키 관리), Document Stores(지식 베이스 관리) 기능을 소개합니다.

Flowise v3의 강력한 기능들을 소개합니다. 간단한 폼 작성만으로 캔버스 작업 없이 AI 에이전트를 구축할 수 있으며, 마켓플레이스에서 기존 에이전트를 복사하여 수정할 수 있습니다.
커스텀 도구 생성, API 키 관리, 전역 변수 설정 등의 기능을 제공합니다. 외부 시스템과의 통합을 위한 API와 SDK도 지원하며, 문서 저장소를 통해 지식베이스를 쉽게 관리할 수 있습니다.
[00:07:29] 에이전트 플로우 v2 사용 준비

Agent Flows 메뉴에서 버전 2 선택 방법과 업그레이드(npm update) 절차를 안내합니다. 신규 플로우 생성 시 이름 지정, 저장 후 캔버스 진입 과정을 설명합니다.

에이전트 플로우 생성 과정을 안내합니다. 버전 2 선택 확인, npm을 통한 업그레이드 방법, 새 플로우 생성과 명명 과정을 설명합니다.
에이전트 플로우 인터페이스를 탐색합니다. 시작 노드부터 API 엔드포인트 메뉴, 웹사이트 임베드, Python/JavaScript 호출, 공개 공유 기능까지 다양한 통합 옵션을 제공합니다.
[00:08:37] API 엔드포인트 및 프로젝트 설정

캔버스 상단의 API Endpoint 메뉴로 외부 시스템(Python, JavaScript, 웹사이트 임베드) 연동 코드를 확인합니다. 프로젝트 설정(Settings)에서 대화 기록 조회, 데이터 익스포트, 삭제, Starter/Follow-up Prompts, 음성 채팅, 피드백, 분석 도구 연동, 리드 수집, 파일 업로드 설정 방법을 설명합니다.

프로젝트 설정 메뉴를 살펴봅니다. 과거 대화 기록 조회, 리드 수집 기능, 플로우 로드/내보내기/삭제 옵션들을 확인할 수 있습니다.
구성 설정에서 제공하는 고급 기능들을 소개합니다. 시작 프롬프트, 후속 프롬프트, 음성-텍스트 변환, 채팅 피드백 등 사용자 경험을 향상시키는 다양한 기능들을 설정할 수 있습니다.
사용자 피드백 시스템에 대한 설명: 에이전트 응답에 대한 좋아요/싫어요 평가, 피드백 확인을 통한 채팅 플로우 최적화, 랭스미스와 랭퓨즈 같은 분석 도구를 통한 토큰 사용량과 성능 모니터링이 가능합니다.
추가 기능들 소개: 리드 수집을 통한 사용자 정보 수집, 파일 업로드 기능으로 이미지와 문서를 채팅 창에서 처리할 수 있는 기능들을 설명합니다.
캔버스 사용법: 파란색 버튼으로 새 노드 추가, 사용 가능한 모든 노드 확인, AI를 활용한 에이전트 플로우 자동 생성 기능과 체크리스트를 통한 플로우 검증 방법을 안내합니다.
[00:10:04] 캔버스에서 플로우 생성 및 검증

캔버스에서 노드를 추가하고 AI로 플로우를 자동 생성(Generate Agent Flow)하는 기능을 시연합니다. 우측의 Checklist로 누락된 노드나 설정 오류를 검증합니다. 채팅 버블을 통해 실시간 테스트 및 디버깅 과정을 보여줍니다.

실제 테스트 과정: 채팅 버블을 통한 에이전트와의 대화 테스트를 시도하지만, 노드가 연결되지 않아 응답을 받지 못하는 상황을 보여줍니다.
AI 모델 추가 방법: 에이전트 노드와 LLM 노드의 차이점을 설명하고, LLM 노드가 도구 호출은 불가능하지만 분류나 콘텐츠 생성 같은 일회성 AI 처리에 적합함을 설명합니다.
[00:11:01] LLM 노드 설정: 모델·자격증명·메시지·메모리

LLM 노드를 추가해 이름 지정 후 OpenAI, OLLAMA, Grok 등 모델 선택 과정을 안내합니다. OpenAI API 키 발급 및 자격증명 등록, 시스템 메시지 설정, 온도·스트리밍·메모리 유형(전체 대화, 윈도우, 요약 등) 구성 방법을 상세히 설명합니다.

모델 선택과 설정: Flowise의 다양한 서비스 통합 옵션을 소개하고, 무료 모델 옵션(Ollama, Grok Chat)과 유료 모델인 OpenAI의 장점을 비교 설명합니다.
OpenAI 연결 설정: Chat OpenAI 매개변수 설정을 위한 자격 증명 생성 과정과 platform.openai.com에서 API 키를 얻는 방법을 단계별로 안내합니다.
OpenAI API 키 설정 방법을 설명합니다. platform.openai.com/api-keys에서 키를 생성하고, 유료 서비스이므로 계정에 몇 달러 충전을 권장합니다.
Flowise에서 다양한 OpenAI 모델을 선택할 수 있으며, GPT-4 mini를 선택하고 온도를 0.7로 설정합니다. 추론 모델의 경우 추론 노력 수준을 조정할 수 있습니다.
스트리밍 기능을 활성화하여 응답을 실시간으로 받을 수 있습니다. 메시지 설정을 통해 시스템 메시지나 AI/사용자 메시지를 구성할 수 있습니다.
시스템 메시지를 통해 LLM의 역할과 동작을 제어합니다. 농담 생성 역할을 예시로 설정하고, 마크다운을 사용한 콘텐츠 포맷팅도 가능합니다.
[00:14:46] 추가 노드 구성: Joke Analyzer 예제

두 번째 LLM 노드를 추가해 'Joke Analyzer'를 구성합니다. 시스템 메시지로 셋업과 펀치라인 추출 역할을 지정하고, 메모리 비활성화 후 이전 노드 출력 변수만 주입해 토큰 사용량 절감 및 컨텍스트 최적화 방법을 시연합니다.

메모리 기능을 통해 대화 기록 추적을 관리합니다. 활성화하면 이전 메시지를 참조하지만 더 많은 토큰을 사용하게 됩니다.
다양한 메모리 유형이 있어 전체 대화 기록 포함, 특정 윈도우 크기 설정(예: 마지막 10개 메시지), 또는 대화 요약 버퍼 사용이 가능합니다.
LLM 노드에서 대화 기록 관리 옵션을 설명합니다. 대화 요약, 토큰 제한 후 요약, 커스텀 메시지 추가 등의 기능을 소개하며, 응답 유형과 JSON 구조화된 출력 설정에 대해 언급합니다.
Flowise의 강력한 상태 관리 기능을 설명합니다. Langraph와 유사하게 작동하며, 글로벌 상태를 설정하면 워크플로우의 모든 노드가 해당 상태에 접근하고 수정할 수 있다고 강조합니다.
실제 플로우를 구성하고 테스트하는 과정을 보여줍니다. 시작 노드와 LLM 노드를 연결하고, 말에 대한 농담을 요청하여 플로우가 정상 작동하는지 확인합니다.
Flowise의 실행 로그 기능을 소개합니다. 각 노드의 입력, 출력, 실행 시간, 토큰 사용량을 확인할 수 있으며, 플로우의 전체 실행 과정을 투명하게 추적할 수 있다고 설명합니다.
새로운 LLM 노드를 추가하고 '농담 분석기'로 명명합니다. OpenAI 모델을 설정하고 농담의 설정과 펀치라인을 추출하는 역할을 부여하는 과정을 보여줍니다.
메모리를 활성화하고 플로우를 저장한 후 '고양이'를 테스트 입력으로 사용하여 농담 분석기가 플로우의 마지막 노드로 올바르게 작동하는 것을 확인합니다.
플로우 실행 순서를 분석해보니 시작 노드 → 농담 생성기 → 농담 분석기 순으로 실행되며, 농담 분석기 노드에서 전체 대화 히스토리가 포함된다는 것을 발견합니다.
대화 히스토리에는 사용자의 채팅 메시지, 농담 생성기의 응답, 농담 분석기의 출력이 순서대로 포함되어 있으며, 농담 분석기는 실제로 이전 노드의 응답만 필요로 한다는 점을 지적합니다.
[00:20:01] Executions 메뉴: 실행 기록 조회 및 디버깅

대시보드의 Executions에서 플로우별 과거 실행 기록을 날짜·상태로 필터링하는 방법을 설명합니다. 각 실행을 클릭해 입력·출력, 토큰 사용량, 처리 시간을 확인하며 워크플로 디버깅 사례를 보여줍니다.

'말'이라는 새로운 메시지를 테스트해보니 농담 분석기에 고양이 관련 대화까지 모두 포함되어 불필요한 컨텍스트가 누적되는 문제를 발견합니다.
메모리 활성화를 비활성화하고 수동으로 컨텍스트를 주입하는 방법을 시연합니다. 이중 중괄호를 사용해 변수를 참조하고, 농담 생성기의 출력만을 어시스턴트 역할로 포함시킵니다.
'개' 주제로 테스트해보니 채팅 창의 사용자 메시지가 제외되고 이전 노드에서 생성된 메시지만 고려되어 토큰 사용량을 절약하고 비용을 줄일 수 있음을 확인합니다.
대시보드의 실행 탭에서 모든 이전 실행을 확인하고, 상태와 날짜로 필터링하며, 각 실행의 노드별 입출력을 분석하여 에이전트 플로우 문제 해결에 활용할 수 있다고 설명합니다.
[00:22:24] 마무리 및 다음 시리즈 예고

커스텀 지식 베이스와 툴을 활용한 첫 번째 AI 에이전트 구축을 예고하며 시리즈 다음 편을 안내합니다.

타임라인 정보가 없습니다.

Flowwise 버전 3이 얼마 전에 출시되었는데
솔직히 정말 인상적입니다.
수많은 사용성 개선사항이 포함되어 있어서
UI뿐만 아니라
에이전트 시스템을 구축하는 방식도 개선되었습니다.
Flowwise를 처음 접한다면
AI 기반 솔루션을 구축하는 노코드 플랫폼입니다.
간단한 챗봇부터
멀티 에이전트 AI 팀까지
고급 에이전트 RAG 시스템, 딥 리서치 에이전트 등
정말 다양한 것들을 구축할 수 있습니다.
이제 궁금할 텐데요
제 채널에서 다뤘던
N8N이나 Make.com 같은 플랫폼과
어떻게 다른지 말이죠.
가까운 시일 내에 전용 비교 영상을
만들 예정입니다.
간단히 말하면 N8N과 Make.com, 그리고 어느 정도 Zapier는
워크플로우 자동화 도구에
AI 기능을 나중에 덧붙인 것입니다.
반면 FlowWise는
AI 기능을 모든 작업의
중심에 두고 있습니다.
따라서 에이전트끼리 서로 대화하고
협력하여 작업을 수행하는
AI 시스템을 매우 쉽게 구축할 수 있습니다.
또한 휴먼 인 더 루프 기능이나
복잡한 지식 베이스를 다루는 것도
정말 간단하게 만들어줍니다.
전용 문서 저장소 솔루션을 제공하기 때문입니다.
따라서 지식 베이스에서
항목을 추가하거나 제거하는 것이
매우 쉽습니다.
중요한 점은 Flowwise가 진정한 오픈소스라는 것입니다.
GitHub 저장소를 보면
Apache 버전 2 라이선스를 사용하는데
이는 회사나 프로젝트에서
Flowwise를 무료로 셀프 호스팅할 수 있다는 뜻입니다.
반면 Make.com은 유료 서비스로
공정하게 말하면 관대한 무료 플랜을 제공하지만
프로젝트 규모가 커지면
꽤 비싸질 수 있습니다.
반면 N8N은 실제로 페어 유즈
라이선스를 적용합니다.
아래로 스크롤하면 페어 코드 또는
페어 유즈 라이선스를 구현하는데
더 큰 프로젝트에서 사용할 계획이라면
고려해야 할 사항입니다.
하지만 오해하지 마세요
저는 실제로 많은 프로젝트에서 Flowwise와 N8N을 모두 사용합니다.
N8N에는 많은 멋진 자동화 기능과
외부 앱과의 통합 기능이 포함되어 있습니다.
반면 Flowwise는 AI 에이전트 측면에서
매우 강력하며 일부 통합 솔루션도
제공합니다.
이제 Flowwise로 돌아가 봅시다.
다룰 내용이 많습니다.
그래서 새 버전의 Flowwise가 제공하는
모든 것을 다루는 전용 플레이리스트를
만들기로 했습니다.
해당 플레이리스트 링크는
이 영상 설명란에서 찾을 수 있습니다.
이 영상에서는 시작하는 방법을 배울 것입니다.
자신의 컴퓨터에 FlowWise를 설정하거나
Flowwise Cloud를 사용해 무료로 가입하는 방법을 배울 것입니다.
Flowwise Cloud에 가입하려면
flowwiseai.com으로 가거나
이 영상 설명란의 링크를 사용하세요.
링크를 사용하시면
제 채널을 지원하는 것이 됩니다.
가격을 살펴보면
무료 플랜으로 FlowWise에
가입할 수 있으며 두 개의 플로우에 액세스할 수 있습니다.
플로우는 기본적으로 워크플로우입니다.
하나 또는 여러 개의 에이전트를 추가할 수 있는 워크플로우입니다.
또한 매달 100개의 예측을 받을 수 있습니다.
일부 저장소와
평가 및 메트릭스와 같은 고급 기능에 대한 액세스를 제공합니다.
물론, 유료 패키지 중 하나로 업그레이드하여
무제한 플로우에 액세스할 수 있습니다.
이 시리즈를 따라하기 위해서는
무료 버전만 사용해도 충분합니다.
FlowWise가 오픈소스이기 때문에
우리가 직접 배포하고
무료로 또는 훨씬 저렴하게 호스팅할 수 있습니다.
이번 비디오에서는
여러분의 컴퓨터에 FlowWise를 설정하는 방법을 보여드려서
무료로 무제한 플로우를 만들 수 있도록 하겠습니다.
페이지를 아래로 스크롤하면
우리가 해야 할 일은 단 두 개의 명령어를 실행하는 것입니다.
우리 컴퓨터에 FlowWise를 설정하기 위해서요.
하지만 이를 하기 전에
우리 컴퓨터에 Node.js가 설치되어 있어야 합니다.
따라서 node.js.org로 가서
Node.js를 다운로드하고 설치하세요.
그 후에 명령 프롬프트나
컴퓨터의 터미널을 열고
다음 명령어를 실행하세요.
입력해보겠습니다.
npm -g install flowise입니다.
이렇게 하면 FlowWise의 모든 종속성이 컴퓨터에 설치되며
완료되는 데 1~2분 정도 걸립니다.
좋습니다. 이제 FlowWise가 설치되었으니
다음 명령어로 시작할 수 있습니다.
npx flowwise start입니다.
그러면 브라우저를 열고
localhost:3000 또는 localhost 포트 3000으로 이동하세요.
FlowWise에 처음 접속할 때는
이름, 이메일, 비밀번호를 입력하라는 요청을 받게 됩니다.
이 정보는 네트워크를 통해 전송되지 않으며
여러분의 컴퓨터에서 로컬로 실행되는
인스턴스를 보호하는 데 사용됩니다.
따라서 간단히 이 양식을 작성하고
가입하기를 클릭하세요.
그게 전부입니다.
FlowWise 대시보드에 오신 것을 환영합니다.
FlowWise 탐색 방법을 살펴보겠습니다.
왼쪽에서는 채팅 플로우와
에이전트 플로우 사이를 전환할 수 있습니다.
과거에는 채팅 플로우가
고객 지원 에이전트와 같은
채팅봇을 구축하는 데 사용되었고
에이전트 플로우는 AI 에이전트 팀과 같은
멀티 에이전트 솔루션을 구축하는 데 사용되었습니다.
하지만 FlowWise 버전 3의 일부로
에이전트 플로우 버전 2라고 불리는
완전히 새로운 버전의 에이전트 플로우를 출시했습니다.
제 생각에는 이것이 채팅 플로우가 할 수 있는 모든 것과
에이전트 플로우 버전 1이 할 수 있는 모든 것을
그리고 훨씬 더 많은 것을 할 수 있습니다.
따라서 여러분이 정말 필요한 것은
에이전트 플로우뿐입니다.
매우 간단한 것을 구축하든
매우 복잡한 에이전트 시스템을 구축하든 상관없이 말이죠.
따라서 시리즈의 대부분에서는
에이전트 플로우를 사용할 것입니다.
실행 메뉴에서는 우리 플로우의
모든 이전 실행을 볼 수 있습니다.
이것은 워크플로우 문제 해결이나
사람의 개입이 필요한 워크플로우에 접근하는 데
도움이 될 수 있습니다.
어시스턴트 하에서는
캔버스에 아무것도 추가하지 않고도
AI 에이전트를 만들 수 있습니다.
여러분이 정말 해야 할 일은
매우 간단한 양식을 작성하는 것뿐입니다.
따라서 우리는 그냥 다음과 같은 것을 입력할 수 있습니다.
예를 들어...
데모라고 입력해보겠습니다. 여기서부터 캔버스에
시간을 전혀 들이지 않고도 도구와
지식베이스를 갖춘 AI 에이전트를
쉽게 구축할 수 있습니다.
마켓플레이스에서는 다른 사람들이 만든
에이전트 예제들을 볼 수 있고
이러한 에이전트들을 단순히 복사해서
필요에 맞게 수정할 수 있습니다.
Flowise는 에이전트에 할당할 수 있는
커스텀 도구 구축도 가능하며
자격 증명도 생성할 수 있습니다.
여기서 OpenAI나 타사
통합을 위한 모든 API 키가
저장됩니다. 전역 변수나
API 키 설정도 가능합니다.
이는 Flowise 플랫폼 외부에서
Flowise를 호출할 때 사용됩니다.
예를 들어 Lovable이나
외부 시스템으로 무언가를 구축할 때
Flowise API나
Flowise SDK를 사용해서
Flowise 에이전트를 호출할 수 있습니다.
문서 저장소는 매우 강력한 기능으로
지식베이스를 생성하고
해당 지식베이스의 콘텐츠를
쉽게 관리할 수 있게 해줍니다.
시리즈에서 이 모든 기능들을
자세히 다룰 예정입니다.
지금은 에이전트 플로우로 가보겠습니다.
에이전트 플로우에서는 버전 2가
선택되어 있는지 확인하세요.
인스턴스에서 버전 2가 보이지 않으면
Flowise를 버전 3 이상으로
업그레이드해야 한다는 뜻입니다.
참고로 Flowise를 업그레이드하려면
npm install -g
@flowise/flowise를 실행하기만 하면 됩니다.
그 후 이 페이지를 새로고침하면
여기서 v2가 나타날 것입니다.
새 에이전트 플로우를 생성하려면
'새로 추가'를 클릭합니다.
저장을 클릭해서 이 플로우에
이름을 지어보겠습니다. 튜토리얼이라고
부르겠습니다. 에이전트 플로우에
오신 것을 환영합니다. 각 플로우는
플로우의 논리적 시작점인
시작 노드로 시작됩니다.
오른쪽 상단에서 API 엔드포인트
메뉴를 볼 수 있습니다. 이는
플로우를 외부 시스템에
통합하기 위한 여러 옵션을 제공합니다.
예를 들어 고객 지원 봇처럼
웹사이트에 에이전트를 추가하고 싶다면
이 스크립트를 사용해서 임베드할 수 있습니다.
Python이나 JavaScript에서
엔드포인트를 호출하거나
cURL을 사용할 수도 있습니다.
'챗봇 공유'를 클릭해서
봇을 공개적으로 공유할 수도 있습니다.
공개로 설정하면 누구나
이 URL을 사용해서
접근할 수 있습니다. 이러한 옵션들은
향후 영상에서 다시 다루겠습니다.
설정을 클릭해서
프로젝트 설정에 접근할 수 있습니다.
여기서 지난 대화들을 볼 수 있습니다.
리드 수집 챗봇을 구축한다면
여기서 모든 리드를 볼 수 있고
에이전트 플로우를 로드하고
내보낼 수도 있습니다. 물론
삭제도 가능합니다. 구성 설정에서는
에이전트에 많은 추가
기능을 추가할 수 있습니다.
예를 들어 시작 프롬프트나
에이전트로부터 응답을 좋아요 또는 싫어요로 평가할 수 있습니다.
사용자가 제공한 피드백을 확인하여
채팅 플로우를 최적화할 수 있습니다.
또한 랭스미스(Langsmith),
랭퓨즈(Langfuse) 등 다양한 도구들을 사용해
채팅 플로우를 분석할 수 있습니다.
이를 통해 토큰 사용량,
성능 및 에이전트 운영 비용을 확인할 수 있습니다.
리드 수집 기능도 활성화할 수 있는데,
이를 통해 에이전트가
사용자로부터 정보를 수집하도록 할 수 있습니다.
물론 파일 업로드 기능도 활성화할 수 있어서
사용자가 이미지나
문서를 채팅 창에 업로드할 수 있습니다.
캔버스를 보면, 파란색 버튼을 클릭해서
캔버스에 새로운 노드를 추가할 수 있습니다.
여기서 프로젝트에 추가할 수 있는
모든 사용 가능한 노드들을 확인할 수 있습니다.
또한 이 '에이전트 플로우 생성' 버튼을 클릭해서
AI를 사용해 프로젝트를 생성할 수도 있습니다.
여기서 만들고자 하는 프로젝트를 간단히 설명하면 됩니다.
예를 들어, 모든 고객 문의를 처리할 수 있는
에이전트 팀이라고 설명하고,
대형 언어 모델을 선택하기만 하면
Flowise가 워크플로우를 생성해줍니다.
오른쪽에는 체크리스트를 클릭해서
플로우를 검증할 수 있습니다.
이는 워크플로우에서 누락되거나
불완전한 노드가 있는지 알려줍니다.
마지막으로, 채팅 버블을 클릭해서
이 에이전트와 채팅할 수 있습니다.
여기서 '안녕하세요'와 같은 메시지를 보낼 수 있지만,
현재 캔버스에 노드를 연결하지 않았기 때문에
이 플로우는 단순히 완료되고
응답을 받지 못합니다.
프로젝트에 AI 모델을 추가해서 이를 해결해보겠습니다.
'노드 추가'에서 에이전트 노드나
LLM 노드를 사용해
AI 기능을 프로젝트에 추가할 수 있습니다.
먼저 LLM 노드를 추가하고,
차이점을 보기 위해 에이전트 노드도 살펴보겠습니다.
LLM 노드는 프로젝트에
AI 기능을 추가하는 가장 쉬운 방법입니다.
이 노드는 예를 들어 도구를 호출하는 기능은 없지만,
분류나 콘텐츠 생성과 같은
일회성 AI 처리에 이상적입니다.
이 노드를 더블클릭해보겠습니다.
먼저 '농담 생성기'와 같은 이름을 지정하고
대형 언어 모델을 선택할 수 있습니다.
Flowise는 여러 서비스와의 통합을 제공하지만,
이 튜토리얼에서는 OpenAI를 사용하겠습니다.
물론 무료 모델을 사용하고 싶다면
그런 옵션들도 있습니다.
Flowise를 로컬에서 실행한다면
Ollama를 사용해서 자신의 머신에서
대형 언어 모델을 실행할 수 있고,
또는 Grok Chat을 사용해서
Grok에 호스팅된 오픈소스 모델을
사용할 수도 있습니다.
하지만 이 튜토리얼에서는 OpenAI를 사용하겠습니다.
OpenAI 모델들이 정말 강력하고
실제로 매우 합리적인 가격이기 때문입니다.
이제 Chat OpenAI 매개변수를 확장해보겠습니다.
여기서 OpenAI 연결을 위한 자격 증명을 설정해야 합니다.
이 드롭다운을 클릭하고
'새로 만들기'를 클릭해보겠습니다.
이 자격 증명을 'OpenAI API'라고 부르겠습니다.
이제 OpenAI API 키를 가져와보겠습니다.
API 키는 다음 주소로 가서 얻을 수 있습니다:
platform.openai.com/api-keys
OpenAI는 유료 서비스라는 점을 참고하세요.
하지만 비용은 매우 저렴합니다.
API 키를 받으셨다면 여기에 붙여넣으시면 됩니다.
그러면 OpenAI와의 연결이 설정됩니다.
platform.openai.com/api-keys로 이동하세요.
OpenAI는 유료 서비스라는 점을 참고하세요.
계정에 몇 달러 정도 충전하는 것을 권장합니다.
저를 믿으세요. 그 크레딧은 매우 오래 사용할 수 있습니다.
그런 다음 API keys에서
새 비밀 키 생성을 클릭하고
Flowise V3 데모와 같은 이름을 지정하겠습니다.
비밀 키 생성을 클릭하세요.
이 키를 복사해서 Flowise에 추가하겠습니다.
추가를 클릭하세요. 이제 모델을 선택해보겠습니다.
여기에는 생성 모델, 추론 모델,
멀티모달 모델까지 모든 것이 포함됩니다.
GPT-4 mini를 선택하겠습니다.
추론 모델을 사용하고 있다면
온도를 1로 설정하는 것을 권장합니다.
아래로 스크롤하면
추론 노력 섹션이 보이고
낮음, 보통, 높음으로 변경할 수 있습니다.
이는 모델이 처리하는 시간과
사용되는 토큰 양에 영향을 줍니다.
저는 단순히 GPT-4o mini를 선택하고
온도는 0.7로 설정하겠습니다.
Flowise에서는 스트리밍도 활성화할 수 있습니다.
이는 모델이 전체 응답이 생성되어
사용자에게 한 번에 전송되기를 기다리는 대신
응답을 실시간으로 스트리밍한다는 의미입니다.
지금은 여기까지만 설정하면 됩니다.
이제 이를 닫고
메시지도 설정할 수 있습니다.
이를 통해 시스템 메시지를 설정하거나
AI 응답과 사용자 메시지를 모방할 수 있습니다.
이는 원샷 또는 퓨샷 프롬프팅에 이상적입니다.
시스템 메시지를 설정해보겠습니다.
이곳에서 이 LLM의 역할과 동작을
효과적으로 제어할 수 있습니다.
당신의 역할은 사용자 주제에 기반해
농담을 생성하는 것입니다라고 하겠습니다.
이 버튼을 클릭하면
Flowise가 시스템 프롬프트를 자동으로 생성해준다는 점도 언급하고 싶습니다.
이렇게 그대로 두겠습니다. 또한 멋진 점은
이를 확장할 수 있고
마크다운을 사용해서
이 콘텐츠를 포맷할 수도 있다는 것입니다.
제목을 추가하고 싶다면
새 줄을 만들고 해시태그 하나를 입력한 후
역할을 입력하면
깔끔하게 포맷된 콘텐츠를 얻을 수 있습니다.
이를 저장하겠습니다.
메모리를 활성화하거나 비활성화할 수도 있습니다.
Flowise는 자동으로 대화 기록을 추적합니다.
하지만 특정 노드에 기록을 포함하고 싶지 않다면
이 시점에서 간단히 비활성화할 수 있습니다.
메모리를 활성화하면 이 노드가
이전 메시지를 보고 무엇을 해야 하는지
파악하려고 시도합니다.
메모리를 비활성화하면
대화 기록이 이 노드의 컨텍스트에
포함되지 않습니다.
이렇게 하고 싶은 여러 가지 이유가 있는데
대화 기록을 포함하면
기록이 없을 때보다
훨씬 많은 토큰을 사용하게 됩니다.
이 노드에서는 활성화해 두겠습니다.
메모리를 포함한다면
다양한 메모리 유형이 있습니다.
전체 대화 기록을 컨텍스트에 포함하거나
특정 윈도우 크기를 설정할 수 있습니다.
예를 들어 마지막 10개 메시지만
포함하고 싶을 수도 있습니다.
또한 대화 기록의 요약을 포함하거나
대화 요약 버퍼를 포함할 수도 있는데
이는 기록을 요약해 줍니다.
마지막 10개 메시지만 포함하고 싶다면
그렇게 할 수도 있습니다.
대화 기록의 요약을 포함하거나
대화 요약을 포함할 수 있습니다
버퍼는 토큰 한계에 도달한 후
대화를 요약할 것입니다.
저는 모든 메시지로 두겠습니다.
입력 메시지를 사용해서
대화 맨 끝에 커스텀 메시지를
추가할 수 있지만
이건 비워두겠습니다.
그다음 LLM이 생성하는
응답 유형도 설정할 수 있습니다.
기본적으로는 사용자 메시지로
반환되거나 어시스턴트 메시지로
반환할 수도 있습니다.
LLM 노드에서는 JSON 구조화된
출력 같은 것들도 설정할 수 있습니다.
예를 들어, 텍스트 출력을
받고 싶지 않고 대신
LLM이 생성하는 출력이
매우 구체적인 규칙을 따르게
하고 싶다면 말이죠. JSON 구조화된
출력은 다음 비디오에서
살펴보겠습니다. 그리고 마지막으로
상태도 업데이트할 수 있습니다.
이것은 Flowise가 제공하는
매우 강력한 기능입니다.
Langraph 같은 프레임워크에
익숙하시다면 정확히 동일하게 작동합니다.
이 시리즈에서 상태에 대해
자세히 살펴볼 예정입니다.
하지만 FlowWise의 강점 중 하나는
플로우 시작 부분에서 상태를 설정하면
워크플로우 내의 각 노드가
해당 글로벌 상태에 접근할 수 있고
그 상태를 변경할 수도 있다는 것입니다.
그리고 워크플로우의 각 노드는
이러한 변경사항을 인식할 수 있습니다.
공유 상태는 정말 강력합니다.
하지만 말씀드린 것처럼
이 시리즈에서 다시 다루겠습니다.
이제 우리가 해야 할 일은
시작 노드를 LLM 노드에
연결하는 것입니다. 이 플로우를 저장해보겠습니다.
체크리스트를 실행해보겠습니다.
모든 것이 검증되고 있습니다.
채팅을 열어보겠습니다.
이것을 확장하고
이 채팅 창을 지우겠습니다.
말에 대한 농담을 들려달라고 해보겠습니다.
좋습니다. 응답을 받았고
이 매우 멋진 기능도 있습니다.
이것을 확장하면 이 플로우 내
각 노드의 실행을 보여줍니다.
시작 노드가 있고 이것을 확장하면
해당 노드로의 입력과
출력을 보여줍니다. 현재 시작 노드는
상태를 제공하지 않는 한
아무것도 출력하지 않습니다.
시작 후에 농담 생성기 노드가
호출되었습니다. 이것을 확장하면
우리가 제공한 시스템 프롬프트와
채팅 창의 메시지, 그리고 이 노드의
출력을 볼 수 있습니다.
이 노드의 실행 시간과
토큰 사용량 같은 유용한 정보도 볼 수 있습니다.
다른 노드를 추가해보겠습니다.
노드 추가에서 LLM 노드를
추가해보겠습니다. 이 둘을 연결하고
이 노드의 이름을 농담 분석기로
바꿔보겠습니다. 모델에서
chat OpenAI를 선택합니다.
매개변수에서 OpenAI API 키를
선택합니다. 그리고 다시 GPT-4o mini를 사용하겠습니다.
메모리를 활성화하겠습니다. 그리고 이것으로
충분한 것 같습니다. 이 플로우를 저장하고
채팅을 지운 다음 단순히
고양이라고 입력해보겠습니다. 좋습니다. 플로우의
마지막 노드인 농담 분석기에서
응답을 받았습니다. 이것을 확장해보면
시작 노드가 실행되고,
그 다음 농담 생성기, 그리고
농담 분석기 순으로 실행된 것을 볼 수 있습니다.
농담 분석기를 확장해보면 여기서
실제로 전체 대화
히스토리를 얻는다는 것을 알 수 있습니다.
먼저 이 농담 분석기 노드의 역할을 얻습니다.
그 다음 전체 대화 히스토리를 얻습니다.
이것은 사용자가 채팅 창에
보낸 메시지입니다. 그 다음은
농담 생성기 노드에서
생성된 응답입니다. 그리고 마지막으로
농담 분석기 노드의
출력입니다. 이 노드의 경우
사용자 메시지가 실제로는
관련이 없다는 것에 동의하실 것입니다.
농담 분석기는 작업을 수행하기 위해
농담 생성기 노드의 응답만
있으면 됩니다. 그렇다면
이 대화 히스토리를 포함하지 않으려면
어떻게 할까요? 실제로
이것을 시도해보겠습니다. 바로 말과 같은
다른 메시지를 보내보겠습니다. 이제
농담 분석기를 살펴보면
고양이와 관련된 대화 히스토리를 얻습니다.
그 다음 말에 대한 새로운 메시지를 얻습니다.
말에 대해 생성된 새로운 농담을 얻습니다.
그리고 마지막으로 이
분석입니다. 이제 말 위의 모든 것이
실제로 이 노드와는 관련이 없고
전체 대화 히스토리가
정말 필요하지 않다는 것에 동의하실 것입니다.
대신 할 수 있는 것은 메모리 활성화를
비활성화하는 것입니다. 이제 이
에이전트는 대화 히스토리를
볼 수 없습니다. 그래서 수동으로
컨텍스트를 주입해야 합니다.
메시지 추가를 클릭한 다음
사용자 메시지를 추가해보겠습니다.
이제 이전 노드의
메시지를 참조해보겠습니다. 이중
중괄호를 입력하면 됩니다.
그러면 이 플로우 내의
많은 다른 변수들이 나타납니다.
question은 채팅 창의 메시지인데
이것은 우리가 원하는 것이 아닙니다.
전체 채팅 히스토리도 가져올 수 있지만
이것도 우리가 원하는 것이 아닙니다. 하지만
맨 끝에서 이 농담 생성기의
출력을 볼 수 있습니다.
이것은 실제로 이 컨텍스트에
포함하고 싶은 것이고, 역할을
어시스턴트로 바꾸겠습니다.
이 응답은 결국 어시스턴트에 의해 생성되었으니까요.
저장하겠습니다. 채팅을 지우고
개를 주제로 추가해보겠습니다.
이것을 확장하면
농담 분석기로 갈 수 있습니다.
이제 채팅 창의 사용자 메시지가
이 뷰에서 제외되었다는 것을 알 수 있습니다.
그리고 이 노드는 이전 노드에서
생성된 메시지만
고려하고 있습니다. 이는 토큰 사용량을 절약하고
비용을 줄일 수 있습니다. 첫 번째
에이전트를 구축하기 전에
실제로 대시보드로 돌아가서
실행 탭으로 가보겠습니다. 여기서
모든 이전 실행을 볼 수 있습니다.
상태와 날짜 범위로
실행을 필터링할 수 있습니다.
어떤 실행이든 클릭하면
해당 실행에서 각 노드의
입력과 출력을 볼 수 있습니다.
이는 에이전트 플로우 문제 해결에 매우
도움이 될 수 있습니다. 다음으로