[00:00]
Flowwise 버전 3이 얼마 전에 출시되었는데
[00:02]
솔직히 정말 인상적입니다.
[00:04]
수많은 사용성 개선사항이 포함되어 있어서
[00:06]
UI뿐만 아니라
[00:09]
에이전트 시스템을 구축하는 방식도 개선되었습니다.
[00:11]
Flowwise를 처음 접한다면
[00:14]
AI 기반 솔루션을 구축하는 노코드 플랫폼입니다.
[00:16]
간단한 챗봇부터
[00:19]
멀티 에이전트 AI 팀까지
[00:21]
고급 에이전트 RAG 시스템, 딥 리서치 에이전트 등
[00:25]
정말 다양한 것들을 구축할 수 있습니다.
[00:29]
이제 궁금할 텐데요
[00:32]
제 채널에서 다뤘던
[00:34]
N8N이나 Make.com 같은 플랫폼과
[00:36]
어떻게 다른지 말이죠.
[00:39]
가까운 시일 내에 전용 비교 영상을
[00:41]
만들 예정입니다.
[00:44]
간단히 말하면 N8N과 Make.com, 그리고 어느 정도 Zapier는
[00:48]
워크플로우 자동화 도구에
[00:51]
AI 기능을 나중에 덧붙인 것입니다.
[00:54]
반면 FlowWise는
[00:56]
AI 기능을 모든 작업의
[00:59]
중심에 두고 있습니다.
[01:02]
따라서 에이전트끼리 서로 대화하고
[01:05]
협력하여 작업을 수행하는
[01:07]
AI 시스템을 매우 쉽게 구축할 수 있습니다.
[01:10]
또한 휴먼 인 더 루프 기능이나
[01:12]
복잡한 지식 베이스를 다루는 것도
[01:14]
정말 간단하게 만들어줍니다.
[01:16]
전용 문서 저장소 솔루션을 제공하기 때문입니다.
[01:19]
따라서 지식 베이스에서
[01:22]
항목을 추가하거나 제거하는 것이
[01:23]
매우 쉽습니다.
[01:26]
중요한 점은 Flowwise가 진정한 오픈소스라는 것입니다.
[01:29]
GitHub 저장소를 보면
[01:32]
Apache 버전 2 라이선스를 사용하는데
[01:34]
이는 회사나 프로젝트에서
[01:37]
Flowwise를 무료로 셀프 호스팅할 수 있다는 뜻입니다.
[01:40]
반면 Make.com은 유료 서비스로
[01:43]
공정하게 말하면 관대한 무료 플랜을 제공하지만
[01:46]
프로젝트 규모가 커지면
[01:48]
꽤 비싸질 수 있습니다.
[01:50]
반면 N8N은 실제로 페어 유즈
[01:53]
라이선스를 적용합니다.
[01:56]
아래로 스크롤하면 페어 코드 또는
[01:59]
페어 유즈 라이선스를 구현하는데
[02:01]
더 큰 프로젝트에서 사용할 계획이라면
[02:03]
고려해야 할 사항입니다.
[02:06]
하지만 오해하지 마세요
[02:09]
저는 실제로 많은 프로젝트에서 Flowwise와 N8N을 모두 사용합니다.
[02:12]
N8N에는 많은 멋진 자동화 기능과
[02:15]
외부 앱과의 통합 기능이 포함되어 있습니다.
[02:17]
반면 Flowwise는 AI 에이전트 측면에서
[02:19]
매우 강력하며 일부 통합 솔루션도
[02:23]
제공합니다.
[02:25]
이제 Flowwise로 돌아가 봅시다.
[02:27]
다룰 내용이 많습니다.
[02:30]
그래서 새 버전의 Flowwise가 제공하는
[02:32]
모든 것을 다루는 전용 플레이리스트를
[02:35]
만들기로 했습니다.
[02:38]
해당 플레이리스트 링크는
[02:40]
이 영상 설명란에서 찾을 수 있습니다.
[02:42]
이 영상에서는 시작하는 방법을 배울 것입니다.
[02:44]
자신의 컴퓨터에 FlowWise를 설정하거나
[02:46]
Flowwise Cloud를 사용해 무료로 가입하는 방법을 배울 것입니다.
[02:49]
Flowwise Cloud에 가입하려면
[02:51]
flowwiseai.com으로 가거나
[02:54]
이 영상 설명란의 링크를 사용하세요.
[02:57]
링크를 사용하시면
[02:59]
제 채널을 지원하는 것이 됩니다.
[03:02]
가격을 살펴보면
[03:04]
무료 플랜으로 FlowWise에
[03:05]
가입할 수 있으며 두 개의 플로우에 액세스할 수 있습니다.
[03:08]
플로우는 기본적으로 워크플로우입니다.
[03:10]
하나 또는 여러 개의 에이전트를 추가할 수 있는 워크플로우입니다.
[03:13]
또한 매달 100개의 예측을 받을 수 있습니다.
[03:15]
일부 저장소와
[03:17]
평가 및 메트릭스와 같은 고급 기능에 대한 액세스를 제공합니다.
[03:20]
물론, 유료 패키지 중 하나로 업그레이드하여
[03:22]
무제한 플로우에 액세스할 수 있습니다.
[03:24]
이 시리즈를 따라하기 위해서는
[03:26]
무료 버전만 사용해도 충분합니다.
[03:29]
FlowWise가 오픈소스이기 때문에
[03:31]
우리가 직접 배포하고
[03:33]
무료로 또는 훨씬 저렴하게 호스팅할 수 있습니다.
[03:35]
이번 비디오에서는
[03:37]
여러분의 컴퓨터에 FlowWise를 설정하는 방법을 보여드려서
[03:41]
무료로 무제한 플로우를 만들 수 있도록 하겠습니다.
[03:42]
페이지를 아래로 스크롤하면
[03:44]
우리가 해야 할 일은 단 두 개의 명령어를 실행하는 것입니다.
[03:47]
우리 컴퓨터에 FlowWise를 설정하기 위해서요.
[03:50]
하지만 이를 하기 전에
[03:52]
우리 컴퓨터에 Node.js가 설치되어 있어야 합니다.
[03:55]
따라서 node.js.org로 가서
[03:57]
Node.js를 다운로드하고 설치하세요.
[04:00]
그 후에 명령 프롬프트나
[04:02]
컴퓨터의 터미널을 열고
[04:05]
다음 명령어를 실행하세요.
[04:07]
입력해보겠습니다.
[04:09]
npm -g install flowise입니다.
[04:12]
이렇게 하면 FlowWise의 모든 종속성이 컴퓨터에 설치되며
[04:17]
완료되는 데 1~2분 정도 걸립니다.
[04:19]
좋습니다. 이제 FlowWise가 설치되었으니
[04:21]
다음 명령어로 시작할 수 있습니다.
[04:23]
npx flowwise start입니다.
[04:25]
그러면 브라우저를 열고
[04:27]
localhost:3000 또는 localhost 포트 3000으로 이동하세요.
[04:31]
FlowWise에 처음 접속할 때는
[04:33]
이름, 이메일, 비밀번호를 입력하라는 요청을 받게 됩니다.
[04:36]
이 정보는 네트워크를 통해 전송되지 않으며
[04:40]
여러분의 컴퓨터에서 로컬로 실행되는
[04:42]
인스턴스를 보호하는 데 사용됩니다.
[04:45]
따라서 간단히 이 양식을 작성하고
[04:47]
가입하기를 클릭하세요.
[04:49]
그게 전부입니다.
[04:51]
FlowWise 대시보드에 오신 것을 환영합니다.
[04:53]
FlowWise 탐색 방법을 살펴보겠습니다.
[04:55]
왼쪽에서는 채팅 플로우와
[04:58]
에이전트 플로우 사이를 전환할 수 있습니다.
[05:00]
과거에는 채팅 플로우가
[05:02]
고객 지원 에이전트와 같은
[05:04]
채팅봇을 구축하는 데 사용되었고
[05:06]
에이전트 플로우는 AI 에이전트 팀과 같은
[05:09]
멀티 에이전트 솔루션을 구축하는 데 사용되었습니다.
[05:11]
하지만 FlowWise 버전 3의 일부로
[05:14]
에이전트 플로우 버전 2라고 불리는
[05:17]
완전히 새로운 버전의 에이전트 플로우를 출시했습니다.
[05:20]
제 생각에는 이것이 채팅 플로우가 할 수 있는 모든 것과
[05:23]
에이전트 플로우 버전 1이 할 수 있는 모든 것을
[05:25]
그리고 훨씬 더 많은 것을 할 수 있습니다.
[05:28]
따라서 여러분이 정말 필요한 것은
[05:31]
에이전트 플로우뿐입니다.
[05:34]
매우 간단한 것을 구축하든
[05:36]
매우 복잡한 에이전트 시스템을 구축하든 상관없이 말이죠.
[05:39]
따라서 시리즈의 대부분에서는
[05:42]
에이전트 플로우를 사용할 것입니다.
[05:44]
실행 메뉴에서는 우리 플로우의
[05:47]
모든 이전 실행을 볼 수 있습니다.
[05:50]
이것은 워크플로우 문제 해결이나
[05:52]
사람의 개입이 필요한 워크플로우에 접근하는 데
[05:55]
도움이 될 수 있습니다.
[05:57]
어시스턴트 하에서는
[06:00]
캔버스에 아무것도 추가하지 않고도
[06:03]
AI 에이전트를 만들 수 있습니다.
[06:05]
여러분이 정말 해야 할 일은
[06:08]
매우 간단한 양식을 작성하는 것뿐입니다.
[06:10]
따라서 우리는 그냥 다음과 같은 것을 입력할 수 있습니다.
[06:12]
예를 들어...
[06:16]
데모라고 입력해보겠습니다. 여기서부터 캔버스에
[06:19]
시간을 전혀 들이지 않고도 도구와
[06:22]
지식베이스를 갖춘 AI 에이전트를
[06:25]
쉽게 구축할 수 있습니다.
[06:28]
마켓플레이스에서는 다른 사람들이 만든
[06:31]
에이전트 예제들을 볼 수 있고
[06:33]
이러한 에이전트들을 단순히 복사해서
[06:36]
필요에 맞게 수정할 수 있습니다.
[06:38]
Flowise는 에이전트에 할당할 수 있는
[06:41]
커스텀 도구 구축도 가능하며
[06:44]
자격 증명도 생성할 수 있습니다.
[06:46]
여기서 OpenAI나 타사
[06:48]
통합을 위한 모든 API 키가
[06:50]
저장됩니다. 전역 변수나
[06:52]
API 키 설정도 가능합니다.
[06:55]
이는 Flowise 플랫폼 외부에서
[06:58]
Flowise를 호출할 때 사용됩니다.
[07:00]
예를 들어 Lovable이나
[07:03]
외부 시스템으로 무언가를 구축할 때
[07:06]
Flowise API나
[07:08]
Flowise SDK를 사용해서
[07:11]
Flowise 에이전트를 호출할 수 있습니다.
[07:14]
문서 저장소는 매우 강력한 기능으로
[07:17]
지식베이스를 생성하고
[07:19]
해당 지식베이스의 콘텐츠를
[07:21]
쉽게 관리할 수 있게 해줍니다.
[07:24]
시리즈에서 이 모든 기능들을
[07:26]
자세히 다룰 예정입니다.
[07:29]
지금은 에이전트 플로우로 가보겠습니다.
[07:32]
에이전트 플로우에서는 버전 2가
[07:34]
선택되어 있는지 확인하세요.
[07:36]
인스턴스에서 버전 2가 보이지 않으면
[07:38]
Flowise를 버전 3 이상으로
[07:40]
업그레이드해야 한다는 뜻입니다.
[07:43]
참고로 Flowise를 업그레이드하려면
[07:45]
npm install -g
[07:47]
@flowise/flowise를 실행하기만 하면 됩니다.
[07:52]
그 후 이 페이지를 새로고침하면
[07:54]
여기서 v2가 나타날 것입니다.
[07:57]
새 에이전트 플로우를 생성하려면
[07:59]
'새로 추가'를 클릭합니다.
[08:01]
저장을 클릭해서 이 플로우에
[08:04]
이름을 지어보겠습니다. 튜토리얼이라고
[08:07]
부르겠습니다. 에이전트 플로우에
[08:09]
오신 것을 환영합니다. 각 플로우는
[08:12]
플로우의 논리적 시작점인
[08:14]
시작 노드로 시작됩니다.
[08:18]
오른쪽 상단에서 API 엔드포인트
[08:20]
메뉴를 볼 수 있습니다. 이는
[08:22]
플로우를 외부 시스템에
[08:25]
통합하기 위한 여러 옵션을 제공합니다.
[08:27]
예를 들어 고객 지원 봇처럼
[08:30]
웹사이트에 에이전트를 추가하고 싶다면
[08:32]
이 스크립트를 사용해서 임베드할 수 있습니다.
[08:36]
Python이나 JavaScript에서
[08:38]
엔드포인트를 호출하거나
[08:41]
cURL을 사용할 수도 있습니다.
[08:43]
'챗봇 공유'를 클릭해서
[08:46]
봇을 공개적으로 공유할 수도 있습니다.
[08:49]
공개로 설정하면 누구나
[08:51]
이 URL을 사용해서
[08:53]
접근할 수 있습니다. 이러한 옵션들은
[08:56]
향후 영상에서 다시 다루겠습니다.
[08:58]
설정을 클릭해서
[09:01]
프로젝트 설정에 접근할 수 있습니다.
[09:04]
여기서 지난 대화들을 볼 수 있습니다.
[09:06]
리드 수집 챗봇을 구축한다면
[09:09]
여기서 모든 리드를 볼 수 있고
[09:11]
에이전트 플로우를 로드하고
[09:14]
내보낼 수도 있습니다. 물론
[09:17]
삭제도 가능합니다. 구성 설정에서는
[09:19]
에이전트에 많은 추가
[09:20]
기능을 추가할 수 있습니다.
[09:23]
예를 들어 시작 프롬프트나
[09:25]
에이전트로부터 응답을 좋아요 또는 싫어요로 평가할 수 있습니다.
[09:28]
사용자가 제공한 피드백을 확인하여
[09:30]
채팅 플로우를 최적화할 수 있습니다.
[09:33]
또한 랭스미스(Langsmith),
[09:36]
랭퓨즈(Langfuse) 등 다양한 도구들을 사용해
[09:38]
채팅 플로우를 분석할 수 있습니다.
[09:42]
이를 통해 토큰 사용량,
[09:43]
성능 및 에이전트 운영 비용을 확인할 수 있습니다.
[09:47]
리드 수집 기능도 활성화할 수 있는데,
[09:49]
이를 통해 에이전트가
[09:52]
사용자로부터 정보를 수집하도록 할 수 있습니다.
[09:54]
물론 파일 업로드 기능도 활성화할 수 있어서
[09:57]
사용자가 이미지나
[09:59]
문서를 채팅 창에 업로드할 수 있습니다.
[10:01]
캔버스를 보면, 파란색 버튼을 클릭해서
[10:04]
캔버스에 새로운 노드를 추가할 수 있습니다.
[10:07]
여기서 프로젝트에 추가할 수 있는
[10:09]
모든 사용 가능한 노드들을 확인할 수 있습니다.
[10:11]
또한 이 '에이전트 플로우 생성' 버튼을 클릭해서
[10:14]
AI를 사용해 프로젝트를 생성할 수도 있습니다.
[10:16]
여기서 만들고자 하는 프로젝트를 간단히 설명하면 됩니다.
[10:19]
예를 들어, 모든 고객 문의를 처리할 수 있는
[10:22]
에이전트 팀이라고 설명하고,
[10:24]
대형 언어 모델을 선택하기만 하면
[10:26]
Flowise가 워크플로우를 생성해줍니다.
[10:29]
오른쪽에는 체크리스트를 클릭해서
[10:30]
플로우를 검증할 수 있습니다.
[10:33]
이는 워크플로우에서 누락되거나
[10:35]
불완전한 노드가 있는지 알려줍니다.
[10:38]
마지막으로, 채팅 버블을 클릭해서
[10:40]
이 에이전트와 채팅할 수 있습니다.
[10:43]
여기서 '안녕하세요'와 같은 메시지를 보낼 수 있지만,
[10:46]
현재 캔버스에 노드를 연결하지 않았기 때문에
[10:48]
이 플로우는 단순히 완료되고
[10:50]
응답을 받지 못합니다.
[10:53]
프로젝트에 AI 모델을 추가해서 이를 해결해보겠습니다.
[10:56]
'노드 추가'에서 에이전트 노드나
[10:59]
LLM 노드를 사용해
[11:01]
AI 기능을 프로젝트에 추가할 수 있습니다.
[11:04]
먼저 LLM 노드를 추가하고,
[11:06]
차이점을 보기 위해 에이전트 노드도 살펴보겠습니다.
[11:10]
LLM 노드는 프로젝트에
[11:13]
AI 기능을 추가하는 가장 쉬운 방법입니다.
[11:15]
이 노드는 예를 들어 도구를 호출하는 기능은 없지만,
[11:18]
분류나 콘텐츠 생성과 같은
[11:20]
일회성 AI 처리에 이상적입니다.
[11:23]
이 노드를 더블클릭해보겠습니다.
[11:25]
먼저 '농담 생성기'와 같은 이름을 지정하고
[11:29]
대형 언어 모델을 선택할 수 있습니다.
[11:30]
Flowise는 여러 서비스와의 통합을 제공하지만,
[11:33]
이 튜토리얼에서는 OpenAI를 사용하겠습니다.
[11:36]
물론 무료 모델을 사용하고 싶다면
[11:39]
그런 옵션들도 있습니다.
[11:41]
Flowise를 로컬에서 실행한다면
[11:43]
Ollama를 사용해서 자신의 머신에서
[11:46]
대형 언어 모델을 실행할 수 있고,
[11:48]
또는 Grok Chat을 사용해서
[11:50]
Grok에 호스팅된 오픈소스 모델을
[11:53]
사용할 수도 있습니다.
[11:55]
하지만 이 튜토리얼에서는 OpenAI를 사용하겠습니다.
[11:58]
OpenAI 모델들이 정말 강력하고
[12:00]
실제로 매우 합리적인 가격이기 때문입니다.
[12:03]
이제 Chat OpenAI 매개변수를 확장해보겠습니다.
[12:05]
여기서 OpenAI 연결을 위한 자격 증명을 설정해야 합니다.
[12:08]
이 드롭다운을 클릭하고
[12:11]
'새로 만들기'를 클릭해보겠습니다.
[12:13]
이 자격 증명을 'OpenAI API'라고 부르겠습니다.
[12:16]
이제 OpenAI API 키를 가져와보겠습니다.
[12:19]
API 키는 다음 주소로 가서 얻을 수 있습니다:
[12:20]
platform.openai.com/api-keys
[12:23]
OpenAI는 유료 서비스라는 점을 참고하세요.
[12:25]
하지만 비용은 매우 저렴합니다.
[12:29]
API 키를 받으셨다면 여기에 붙여넣으시면 됩니다.
[12:33]
그러면 OpenAI와의 연결이 설정됩니다.
[12:35]
platform.openai.com/api-keys로 이동하세요.
[12:38]
OpenAI는 유료 서비스라는 점을 참고하세요.
[12:40]
계정에 몇 달러 정도 충전하는 것을 권장합니다.
[12:43]
저를 믿으세요. 그 크레딧은 매우 오래 사용할 수 있습니다.
[12:46]
그런 다음 API keys에서
[12:48]
새 비밀 키 생성을 클릭하고
[12:51]
Flowise V3 데모와 같은 이름을 지정하겠습니다.
[12:54]
비밀 키 생성을 클릭하세요.
[12:59]
이 키를 복사해서 Flowise에 추가하겠습니다.
[13:01]
추가를 클릭하세요. 이제 모델을 선택해보겠습니다.
[13:04]
여기에는 생성 모델, 추론 모델,
[13:06]
멀티모달 모델까지 모든 것이 포함됩니다.
[13:08]
GPT-4 mini를 선택하겠습니다.
[13:11]
추론 모델을 사용하고 있다면
[13:14]
온도를 1로 설정하는 것을 권장합니다.
[13:17]
아래로 스크롤하면
[13:18]
추론 노력 섹션이 보이고
[13:21]
낮음, 보통, 높음으로 변경할 수 있습니다.
[13:23]
이는 모델이 처리하는 시간과
[13:25]
사용되는 토큰 양에 영향을 줍니다.
[13:28]
저는 단순히 GPT-4o mini를 선택하고
[13:29]
온도는 0.7로 설정하겠습니다.
[13:32]
Flowise에서는 스트리밍도 활성화할 수 있습니다.
[13:36]
이는 모델이 전체 응답이 생성되어
[13:40]
사용자에게 한 번에 전송되기를 기다리는 대신
[13:42]
응답을 실시간으로 스트리밍한다는 의미입니다.
[13:44]
지금은 여기까지만 설정하면 됩니다.
[13:46]
이제 이를 닫고
[13:48]
메시지도 설정할 수 있습니다.
[13:50]
이를 통해 시스템 메시지를 설정하거나
[13:52]
AI 응답과 사용자 메시지를 모방할 수 있습니다.
[13:55]
이는 원샷 또는 퓨샷 프롬프팅에 이상적입니다.
[13:58]
시스템 메시지를 설정해보겠습니다.
[14:01]
이곳에서 이 LLM의 역할과 동작을
[14:04]
효과적으로 제어할 수 있습니다.
[14:07]
당신의 역할은 사용자 주제에 기반해
[14:10]
농담을 생성하는 것입니다라고 하겠습니다.
[14:12]
이 버튼을 클릭하면
[14:15]
Flowise가 시스템 프롬프트를 자동으로 생성해준다는 점도 언급하고 싶습니다.
[14:19]
이렇게 그대로 두겠습니다. 또한 멋진 점은
[14:24]
이를 확장할 수 있고
[14:26]
마크다운을 사용해서
[14:28]
이 콘텐츠를 포맷할 수도 있다는 것입니다.
[14:31]
제목을 추가하고 싶다면
[14:33]
새 줄을 만들고 해시태그 하나를 입력한 후
[14:36]
역할을 입력하면
[14:39]
깔끔하게 포맷된 콘텐츠를 얻을 수 있습니다.
[14:42]
이를 저장하겠습니다.
[14:44]
메모리를 활성화하거나 비활성화할 수도 있습니다.
[14:48]
Flowise는 자동으로 대화 기록을 추적합니다.
[14:51]
하지만 특정 노드에 기록을 포함하고 싶지 않다면
[14:53]
이 시점에서 간단히 비활성화할 수 있습니다.
[14:57]
메모리를 활성화하면 이 노드가
[14:59]
이전 메시지를 보고 무엇을 해야 하는지
[15:02]
파악하려고 시도합니다.
[15:05]
메모리를 비활성화하면
[15:07]
대화 기록이 이 노드의 컨텍스트에
[15:09]
포함되지 않습니다.
[15:11]
이렇게 하고 싶은 여러 가지 이유가 있는데
[15:14]
대화 기록을 포함하면
[15:17]
기록이 없을 때보다
[15:19]
훨씬 많은 토큰을 사용하게 됩니다.
[15:21]
이 노드에서는 활성화해 두겠습니다.
[15:23]
메모리를 포함한다면
[15:25]
다양한 메모리 유형이 있습니다.
[15:28]
전체 대화 기록을 컨텍스트에 포함하거나
[15:30]
특정 윈도우 크기를 설정할 수 있습니다.
[15:33]
예를 들어 마지막 10개 메시지만
[15:35]
포함하고 싶을 수도 있습니다.
[15:37]
또한 대화 기록의 요약을 포함하거나
[15:40]
대화 요약 버퍼를 포함할 수도 있는데
[15:42]
이는 기록을 요약해 줍니다.
[15:45]
마지막 10개 메시지만 포함하고 싶다면
[15:48]
그렇게 할 수도 있습니다.
[15:50]
대화 기록의 요약을 포함하거나
[15:52]
대화 요약을 포함할 수 있습니다
[15:55]
버퍼는 토큰 한계에 도달한 후
[15:58]
대화를 요약할 것입니다.
[16:00]
저는 모든 메시지로 두겠습니다.
[16:02]
입력 메시지를 사용해서
[16:05]
대화 맨 끝에 커스텀 메시지를
[16:07]
추가할 수 있지만
[16:10]
이건 비워두겠습니다.
[16:12]
그다음 LLM이 생성하는
[16:14]
응답 유형도 설정할 수 있습니다.
[16:17]
기본적으로는 사용자 메시지로
[16:20]
반환되거나 어시스턴트 메시지로
[16:23]
반환할 수도 있습니다.
[16:25]
LLM 노드에서는 JSON 구조화된
[16:28]
출력 같은 것들도 설정할 수 있습니다.
[16:30]
예를 들어, 텍스트 출력을
[16:33]
받고 싶지 않고 대신
[16:35]
LLM이 생성하는 출력이
[16:38]
매우 구체적인 규칙을 따르게
[16:40]
하고 싶다면 말이죠. JSON 구조화된
[16:43]
출력은 다음 비디오에서
[16:46]
살펴보겠습니다. 그리고 마지막으로
[16:48]
상태도 업데이트할 수 있습니다.
[16:51]
이것은 Flowise가 제공하는
[16:53]
매우 강력한 기능입니다.
[16:56]
Langraph 같은 프레임워크에
[16:58]
익숙하시다면 정확히 동일하게 작동합니다.
[17:01]
이 시리즈에서 상태에 대해
[17:04]
자세히 살펴볼 예정입니다.
[17:06]
하지만 FlowWise의 강점 중 하나는
[17:08]
플로우 시작 부분에서 상태를 설정하면
[17:12]
워크플로우 내의 각 노드가
[17:14]
해당 글로벌 상태에 접근할 수 있고
[17:17]
그 상태를 변경할 수도 있다는 것입니다.
[17:20]
그리고 워크플로우의 각 노드는
[17:22]
이러한 변경사항을 인식할 수 있습니다.
[17:24]
공유 상태는 정말 강력합니다.
[17:27]
하지만 말씀드린 것처럼
[17:30]
이 시리즈에서 다시 다루겠습니다.
[17:33]
이제 우리가 해야 할 일은
[17:35]
시작 노드를 LLM 노드에
[17:37]
연결하는 것입니다. 이 플로우를 저장해보겠습니다.
[17:43]
체크리스트를 실행해보겠습니다.
[17:45]
모든 것이 검증되고 있습니다.
[17:48]
채팅을 열어보겠습니다.
[17:50]
이것을 확장하고
[17:52]
이 채팅 창을 지우겠습니다.
[17:55]
말에 대한 농담을 들려달라고 해보겠습니다.
[17:58]
좋습니다. 응답을 받았고
[18:00]
이 매우 멋진 기능도 있습니다.
[18:02]
이것을 확장하면 이 플로우 내
[18:04]
각 노드의 실행을 보여줍니다.
[18:07]
시작 노드가 있고 이것을 확장하면
[18:10]
해당 노드로의 입력과
[18:12]
출력을 보여줍니다. 현재 시작 노드는
[18:15]
상태를 제공하지 않는 한
[18:17]
아무것도 출력하지 않습니다.
[18:20]
시작 후에 농담 생성기 노드가
[18:22]
호출되었습니다. 이것을 확장하면
[18:25]
우리가 제공한 시스템 프롬프트와
[18:27]
채팅 창의 메시지, 그리고 이 노드의
[18:30]
출력을 볼 수 있습니다.
[18:33]
이 노드의 실행 시간과
[18:36]
토큰 사용량 같은 유용한 정보도 볼 수 있습니다.
[18:40]
다른 노드를 추가해보겠습니다.
[18:44]
노드 추가에서 LLM 노드를
[18:47]
추가해보겠습니다. 이 둘을 연결하고
[18:50]
이 노드의 이름을 농담 분석기로
[18:53]
바꿔보겠습니다. 모델에서
[18:56]
chat OpenAI를 선택합니다.
[19:01]
매개변수에서 OpenAI API 키를
[19:04]
선택합니다. 그리고 다시 GPT-4o mini를 사용하겠습니다.
[19:07]
메모리를 활성화하겠습니다. 그리고 이것으로
[19:10]
충분한 것 같습니다. 이 플로우를 저장하고
[19:14]
채팅을 지운 다음 단순히
[19:16]
고양이라고 입력해보겠습니다. 좋습니다. 플로우의
[19:19]
마지막 노드인 농담 분석기에서
[19:21]
응답을 받았습니다. 이것을 확장해보면
[19:24]
시작 노드가 실행되고,
[19:26]
그 다음 농담 생성기, 그리고
[19:29]
농담 분석기 순으로 실행된 것을 볼 수 있습니다.
[19:32]
농담 분석기를 확장해보면 여기서
[19:34]
실제로 전체 대화
[19:37]
히스토리를 얻는다는 것을 알 수 있습니다.
[19:39]
먼저 이 농담 분석기 노드의 역할을 얻습니다.
[19:42]
그 다음 전체 대화 히스토리를 얻습니다.
[19:45]
이것은 사용자가 채팅 창에
[19:46]
보낸 메시지입니다. 그 다음은
[19:49]
농담 생성기 노드에서
[19:52]
생성된 응답입니다. 그리고 마지막으로
[19:54]
농담 분석기 노드의
[19:57]
출력입니다. 이 노드의 경우
[19:59]
사용자 메시지가 실제로는
[20:02]
관련이 없다는 것에 동의하실 것입니다.
[20:05]
농담 분석기는 작업을 수행하기 위해
[20:07]
농담 생성기 노드의 응답만
[20:09]
있으면 됩니다. 그렇다면
[20:11]
이 대화 히스토리를 포함하지 않으려면
[20:14]
어떻게 할까요? 실제로
[20:16]
이것을 시도해보겠습니다. 바로 말과 같은
[20:19]
다른 메시지를 보내보겠습니다. 이제
[20:21]
농담 분석기를 살펴보면
[20:23]
고양이와 관련된 대화 히스토리를 얻습니다.
[20:26]
그 다음 말에 대한 새로운 메시지를 얻습니다.
[20:28]
말에 대해 생성된 새로운 농담을 얻습니다.
[20:31]
그리고 마지막으로 이
[20:33]
분석입니다. 이제 말 위의 모든 것이
[20:35]
실제로 이 노드와는 관련이 없고
[20:38]
전체 대화 히스토리가
[20:40]
정말 필요하지 않다는 것에 동의하실 것입니다.
[20:44]
대신 할 수 있는 것은 메모리 활성화를
[20:46]
비활성화하는 것입니다. 이제 이
[20:49]
에이전트는 대화 히스토리를
[20:51]
볼 수 없습니다. 그래서 수동으로
[20:54]
컨텍스트를 주입해야 합니다.
[20:58]
메시지 추가를 클릭한 다음
[21:00]
사용자 메시지를 추가해보겠습니다.
[21:03]
이제 이전 노드의
[21:05]
메시지를 참조해보겠습니다. 이중
[21:07]
중괄호를 입력하면 됩니다.
[21:09]
그러면 이 플로우 내의
[21:11]
많은 다른 변수들이 나타납니다.
[21:14]
question은 채팅 창의 메시지인데
[21:16]
이것은 우리가 원하는 것이 아닙니다.
[21:18]
전체 채팅 히스토리도 가져올 수 있지만
[21:21]
이것도 우리가 원하는 것이 아닙니다. 하지만
[21:24]
맨 끝에서 이 농담 생성기의
[21:26]
출력을 볼 수 있습니다.
[21:28]
이것은 실제로 이 컨텍스트에
[21:31]
포함하고 싶은 것이고, 역할을
[21:35]
어시스턴트로 바꾸겠습니다.
[21:37]
이 응답은 결국 어시스턴트에 의해 생성되었으니까요.
[21:40]
저장하겠습니다. 채팅을 지우고
[21:43]
개를 주제로 추가해보겠습니다.
[21:45]
이것을 확장하면
[21:46]
농담 분석기로 갈 수 있습니다.
[21:49]
이제 채팅 창의 사용자 메시지가
[21:51]
이 뷰에서 제외되었다는 것을 알 수 있습니다.
[21:54]
그리고 이 노드는 이전 노드에서
[21:56]
생성된 메시지만
[21:59]
고려하고 있습니다. 이는 토큰 사용량을 절약하고
[22:01]
비용을 줄일 수 있습니다. 첫 번째
[22:04]
에이전트를 구축하기 전에
[22:06]
실제로 대시보드로 돌아가서
[22:09]
실행 탭으로 가보겠습니다. 여기서
[22:12]
모든 이전 실행을 볼 수 있습니다.
[22:15]
상태와 날짜 범위로
[22:18]
실행을 필터링할 수 있습니다.
[22:20]
어떤 실행이든 클릭하면
[22:22]
해당 실행에서 각 노드의
[22:24]
입력과 출력을 볼 수 있습니다.
[22:27]
이는 에이전트 플로우 문제 해결에 매우
[22:30]
도움이 될 수 있습니다. 다음으로