진짜 AI 에이전트를 만들고 있나요, 아니면 단순한 LLM에 불과한가요?

채널 아이콘
Cole Medin 구독자 78,300명

요약

이 영상은 AI 에이전트와 단순 LLM 워크플로우의 차이를 명확히 설명합니다. Hugging Face와 Anthropic의 정의를 기반으로 에이전트가 비결정적이고 환경과 상호작용하며 목표 지향적으로 작동하는 점을 강조합니다. n8n을 활용한 다양한 실제 예시를 통해 두 접근 방식의 장단점을 비교 분석합니다. 최종적으로, 향후 AI 에이전트가 열어줄 새로운 가능성과 중요성을 소개합니다.

주요 키워드

AI 에이전트 LLM 워크플로우 비결정적 n8n Hugging Face Anthropic 도구 상호작용 자동화

하이라이트

  • 🔑 AI 에이전트와 단순 LLM 워크플로우의 본질적 차이를 강조함.
  • ⚡️ Hugging Face 및 Anthropic의 에이전트 정의를 통해 핵심 개념을 분명히 함.
  • 🌟 에이전트의 비결정적(non-deterministic) 특성 및 환경과의 상호작용 능력을 부각함.
  • 📌 n8n을 이용한 시각적 예시로 실제 작동 방식을 이해하기 쉽게 설명함.
  • 🚀 실제 사례를 통해 에이전트와 단순 워크플로우의 구현 및 적용 차이를 명확히 함.

용어 설명

AI 에이전트

환경과 상호작용하며 목표를 달성하기 위해 비결정적으로 행동하는 인공지능 시스템을 의미함.

LLM (대형 언어 모델)

텍스트 생성과 자연어 처리를 위해 학습된 대규모 신경망으로, 다양한 프로그램에 응용됨.

워크플로우

여러 LLM 호출이 순차적으로 연결되어 진행되는 작업 흐름을 의미하며, 고정된 순서를 따름.

비결정적 (Non-deterministic)

실행 결과가 사전에 결정되지 않고 상황에 따라 유동적으로 변화하는 특성을 의미함.

n8n

노코드 자동화 도구로, 다양한 워크플로우 및 AI 에이전트 구현에 활용되는 플랫폼임.

[00:00:00] Introduction & Overview

주제 소개와 LLM을 에이전트로 오용하는 현실을 제시합니다. 간단한 사례를 들어 문제점을 설명합니다.

LLM을 프로그램에 넣는다고 해서 모두 AI 에이전트가 되는 것은 아니며, 실제 AI 에이전트와 LLM이 포함된 워크플로우는 큰 차이가 있다는 점을 설명합니다.
[00:00:34] Definition of AI Agents

Hugging Face와 Anthropic의 정의로 AI 에이전트의 개념을 설명합니다. 비결정적 특성과 목표 지향적 상호작용을 강조합니다.

에이전트의 정의와 특성을 설명하기 위해 허깅페이스와 앤트로픽의 정의를 참조하고, 실제 예시를 통해 에이전트와 비에이전트의 차이를 보여줄 것을 예고합니다.
AI 에이전트의 정확한 정의를 설명하기 시작하며, 현재 많은 개발자들이 에이전트에 대한 명확한 이해가 부족함을 지적합니다.
허깅페이스의 정의에 따르면, AI 에이전트는 LLM의 출력이 워크플로우를 제어하는 비결정적 프로그램이며, 단순한 순차적 실행과는 다르다고 설명합니다.
AI 에이전트는 특정 목표를 달성하기 위해 환경과 상호작용하는 능력을 가진 AI 모델로, 목표 지향적이며 그 목표에 도달하는 방법을 스스로 추론한다고 설명합니다.
Anthropic이 제시한 AI 에이전트의 정의를 설명하며, 최근 그들의 YouTube 채널에서 공개한 에이전트 구축 팁과 워크플로우와의 차이점을 소개합니다.
[00:03:01] Workflow Examples vs. AI Agents

단순 LLM 워크플로우와 진정한 AI 에이전트의 예시를 비교합니다. 각 방식의 구분 포인트를 명확히 설명합니다.

많은 사람들이 단순한 LLM 호출 이상의 모든 것을 에이전트라고 부르는 현상을 지적하고, 워크플로우와 진정한 에이전트의 차이를 설명합니다.
에이전트의 개념을 시각적으로 이해하기 위해 다이어그램을 통해 설명하기 시작합니다.
에이전트의 핵심 구성 요소를 설명: 도구와의 상호작용 능력, 시스템 프롬프트를 통한 목표 설정, 단기/장기 메모리를 통한 지식 활용 등을 다룹니다.
에이전트의 순환적 작동 방식을 설명: 환경과의 상호작용, 결과 관찰, 다음 행동 결정의 순환 구조를 설명합니다.
AI 에이전트는 비결정적 행동을 하며, 목표 달성을 위해 필요한 상호작용의 횟수를 미리 알 수 없다는 특징을 가집니다.
AI 에이전트의 도구적 측면을 설명하는 다이어그램을 통해 웹 검색, API 호출, RAG, 계산기 등 다양한 도구들이 환경과의 상호작용을 가능하게 함을 보여줍니다.
사용자 입력부터 LLM의 처리, 도구 사용, 관찰 결과 피드백까지의 전체 프로세스를 설명하며, 이는 비결정적 루프를 통해 목표 달성까지 계속됩니다.
에이전트가 아닌 워크플로우의 예시로, 다중 플랫폼 게시 시스템을 소개합니다. 이는 단순히 LLM 호출들을 순차적으로 연결한 것입니다.
n8n을 통해 순차적 워크플로우와 AI 에이전트의 차이점을 설명하며, 진정한 에이전트와 단순 워크플로우의 구분을 명확히 합니다.
Make, n8n, Zapier에서 각 플랫폼에 맞는 메시지를 생성하기 위해 잘 정의된 시스템 프롬프트와 LLM을 사용하는 것의 중요성을 설명합니다.
이것이 진정한 에이전트가 아닌 이유를 설명하며, AI에 대한 X, LinkedIn, 블로그 포스트 작성 테스트를 진행합니다.
단순 워크플로우가 AI 에이전트보다 더 적합한 이유를 설명하며, 에이전트의 비결정성이 가져올 수 있는 문제점을 지적합니다.
최종 응답을 검토하며 이것이 훌륭한 워크플로우이지만 AI 에이전트는 아니라는 결론을 내립니다.
[00:09:07] Real AI Agent Demonstrations in n8n

Google Docs, GitHub 등과 연계된 실제 에이전트 사례를 시연합니다. 비결정적 상호작용과 도구 활용 방식을 보여줍니다.

n8n 채팅 창에서 새로운 기술 스택 전문가 시스템을 소개하며, 이것이 워크플로우인지 에이전트인지 판단해보도록 제안합니다.
시스템이 프론트엔드, 백엔드, AI 코더, 사용자 수 등에 대해 질문하고 종합적인 기술 스택 추천을 제공하는 과정을 보여줍니다.
시스템의 복잡성과 추론 능력을 고려할 때, 이것이 진정한 AI 에이전트인지 단순한 워크플로우나 챗봇인지 판단을 요청합니다.
n8n 워크플로우를 통해 단일 LLM으로 구동되는 대화 시스템을 살펴보며, 이것이 왜 진정한 AI 에이전트가 아닌지 설명합니다.
이 시스템이 단순한 챗봇인 이유는 환경과의 상호작용 없이 시스템 프롬프트에만 의존하고 있기 때문입니다.
이 워크플로우는 비결정적 특성을 가지고 있지만, 환경과 상호작용하지 않아 진정한 에이전트가 될 수 없습니다.
Google Docs를 활용하여 장기 메모리와 노트를 관리하는 실제 AI 에이전트의 예시를 소개합니다. 이 에이전트는 환경과 상호작용하며 비결정적 특성을 가지고 있습니다.
에이전트는 필요에 따라 자율적으로 도구를 호출하며, 이를 시연하기 위해 기본적인 대화를 시작합니다.
장기 기억 저장 기능을 테스트하기 위해 '신발 끈 매는 법'이라는 예시를 사용하여 노트 저장 도구를 실행합니다.
대화를 새로 시작했음에도 구글 독스에 저장된 정보를 통해 이전 대화 내용을 기억하고 답변할 수 있음을 확인합니다.
이 시스템이 진정한 에이전트인 이유는 비결정적 특성과 환경(구글 독스)과의 상호작용 때문임을 설명합니다.
[00:15:03] Conclusion & Future Potential

에이전트와 워크플로우의 차이를 요약하며 미래 가능성을 논의합니다. AI 에이전트가 제공할 새로운 가능성에 대해 강조합니다.

깃허브 에이전트 데모를 통해 저장소 구조 분석과 파일 탐색 기능을 보여주며, 아콘(Archon) 프로젝트의 여러 버전을 분석하는 과정을 시연합니다.
GitHub 저장소의 각 버전별 README 파일을 분석하고 요약하여 명확한 설명을 제공합니다. 이는 에이전트가 도구 사용을 자율적으로 결정하고 실행하는 좋은 예시입니다.
ChatGPT.com은 단순한 대화형 챗봇의 예시로, 웹 검색 기능이 있더라도 검색 결과를 단순히 LLM의 컨텍스트로만 사용할 뿐, 추가적인 의사결정이나 검색 개선을 하지 않습니다.
Windsurfr는 진정한 AI 에이전트의 예시로, 파일 분석, 도구 호출, 편집 등 복잡한 의사결정을 자율적으로 수행할 수 있습니다.
요즘 모든 사람들이 LLM을
모든 프로그램에 넣고 에이전트라고 부르고 있습니다
하지만 그렇게 단순한 게 아닙니다. 저는 이런 경우를
특히 n8n 같은 노코드 도구에서 자주 봅니다
여기서 중요한 점은
실제 AI 에이전트와
단순히 LLM이 포함된 워크플로우 사이에는
큰 차이가 있다는 것이며
이는 매우 중요한 구분입니다
에이전트를 만드는 방식과
워크플로우를 만드는 방식, 그리고 각각의 활용처가
완전히 다르기 때문에
무엇을 만들고 있는지 알아야 합니다. 둘 다
매우 유효하고 가치 있지만 각각이 해결하는 문제는
완전히 다른 영역입니다
이제 함께 자세히 살펴보겠습니다
에이전트가 무엇인지 뿐만 아니라
무엇이 아닌지도 보여드리겠습니다
이를 통해 확실히 이해하실 수 있을 겁니다
게다가 이해를 돕기 위한
시각적 예시들도 준비했고
허깅페이스와 앤트로픽의
에이전트 정의도 다룰 예정입니다
에이전트를 사용해야 할 때와
단순 워크플로우가 더 나은 경우도 알아보고
실제 사례를 통해
에이전트와 비에이전트의 예시를 보여드리겠습니다
오늘 많은 가치 있는 내용을 준비했으니
바로 시작해보겠습니다
자, 이렇게 진행하겠습니다
먼저 AI 에이전트가 실제로 무엇인지
함께 정의해보겠습니다. 아마도
AI 에이전트를 만드는 일반적인 사람들에게
에이전트가 무엇인지 물어보면
명확한 정의를 내리지 못할 것입니다
그래서 지금
허깅페이스와 앤트로픽의 도움을 받아
에이전트에 대한 명확한 정의를
만들어보겠습니다. 이것이
이후 내용의 토대가 될 것입니다
n8n을 통해 실제로
에이전트의 예시와
에이전트처럼 보이지만 실제로는 아닌
워크플로우의 예시를 보여드리겠습니다
여기 허깅페이스의
블로그 포스트를 보시면
에이전트에 대한 간단명료한 정의가 있습니다
이것만으로는 부족하지만
좋은 시작점이 될 것 같습니다
AI 에이전트는 LLM의 출력이
워크플로우를 제어하는 프로그램입니다
여기서 제가 강조하고 싶은 핵심 단어는
'비결정적'이라는 것입니다
이는 에이전트가 워크플로우를 제어할 때
정확히 어떤 일이 일어날지 모른다는 뜻입니다
단순히 A 단계, B 단계, C 단계처럼
순차적으로 진행되는 것이 아닙니다
에이전트가 워크플로우에서
무엇을, 언제, 몇 번이나 실행할지 결정하기 때문입니다
허깅페이스의 AI 에이전트 과정에서
제시하는 또 다른 좋은 정의가 있는데
화면에 보여드리겠습니다
이것은 매우 중요한데요
AI 에이전트는 특정 목표를 달성하기 위해
환경과 상호작용할 수 있는 능력이 주어진
AI 모델이라고 설명합니다
이는 에이전트가 목표 지향적이라는 점을
보여주는데, 워크플로우가
단순히 선형적인 경로를 따라
특정 작업을 수행하는 것과 달리
에이전트는 실제로 목표를 가지고
그 목표에 도달하는 방법을 추론합니다
이것이 허깅페이스가 제시한 내용이고
매우 좋은 시작점이 되지만
또 다른 정의도 있습니다
Anthropic에서 제시한 이 정의를 매우
높이 평가하고 싶습니다.
최근 그들의 YouTube 채널에서
AI 에이전트 구축에 대한 팁을 공유했는데,
에이전트와 워크플로우의 차이점에 대해
우리가 지금까지 이야기했던 것처럼
자세히 다루고 있습니다.
이 영상 클립을 한번 보시죠.
정말 훌륭한 내용입니다.
블로그 포스트에서 우리가 탐구한 것처럼
많은 사람들이 단순한 LLM 호출 이상의
모든 것을 에이전트라고
부르고 있습니다.
블로그 포스트에서 우리가 시도한 것은
이를 명확히 구분하는 것이었습니다.
워크플로우는 여러 개의
LLM 호출이 연결된 것이고,
반면 우리가 생각하는 진정한 에이전트는
LLM이 실행 횟수를 스스로 결정하고
해결책을 찾을 때까지
계속해서 반복하는 것입니다.
이는 고객 지원을 위한
대화일 수도 있고,
코드 변경을 반복하는 것일 수도 있습니다.
중요한 점은 목표 달성까지
얼마나 많은 단계가 필요할지
미리 알 수 없다는 것입니다.
이것이 바로 우리가 정의하는
진정한 에이전트입니다.
정말 훌륭한 설명이죠.
이는 앞서 본 Hugging Face의
정의와도 매우 잘 일치합니다.
아직 이해가 잘 되지 않더라도
걱정하지 마세요.
제가 곧 보여드릴 예제들이
이 개념을 더 명확하게 해줄 것입니다.
비결정적 에이전트가 워크플로우에서
실행을 결정하는 방식과
순차적 워크플로우와의 차이점을
이해하는데 도움이 될 것입니다.
n8n 워크플로우로 넘어가기 전에
몇 가지 다이어그램을 보여드리고 싶습니다.
다이어그램이 개념 이해에
도움이 된다는 걸 알기 때문입니다.
여러분도 같은 생각이시라면
이것이 매우 유용할 것입니다.
이 다이어그램은 Hugging Face와
Anthropic이 설명한 정의들을
잘 정리해서 보여줍니다.
본질적으로 에이전트는
Google Drive나 Slack 같은 것들과
상호작용할 수 있는 도구들을
능력으로서 부여받습니다.
시스템 프롬프트를 통해
목표와 선호도가 주어지고,
대화 기록을 통한
단기 메모리나
RAG와 같은 장기 메모리를 통해
사전 지식도 제공됩니다.
이 모든 것이 에이전트에 주어지면
환경 내에서 사용자를 대신해
작업을 수행할 수 있게 됩니다.
이메일 작성, Slack 메시지 전송,
데이터베이스 쿼리 등
도구들이 에이전트에게 가능하게 하는
모든 작업을 수행하죠.
그리고 이는 순환 구조입니다.
에이전트가 관찰하는 단계가 있어서
도구를 사용했을 때 환경에서
어떤 일이 발생했는지,
데이터베이스를 조회했을 때
어떤 결과를 받았는지,
다음에 무엇을 해야 할지 판단하고
다시 환경과 상호작용할 수 있습니다.
다시 말하지만, 목표를 달성하기 위해
몇 번의 상호작용이 필요할지는
미리 알 수 없습니다. 이것이 바로 제가 앞서 언급한
비결정적 행동입니다.
그리고 또 다른 다이어그램이 있는데,
이것은 조금 더 복잡하지만
AI 에이전트를 에이전트답게 만드는
도구적인 측면을 더 잘 설명합니다.
도구란 에이전트에게 주어진 기능으로,
웹 검색이나 API 호출과 같은 것들,
예를 들어 이 예시의 날씨 API나
지식 베이스에 대한 RAG 수행,
또는 계산기 사용 등을 말합니다.
이러한 도구들은 에이전트가
환경과 상호작용할 수 있게 해주죠.
왼쪽 끝에서 사용자 입력이 시작되어
LLM으로 들어갑니다. LLM은
모든 것의 두뇌 역할을 하며
사용자가 준 목표를 달성하기 위해
무엇을 해야 할지 결정합니다.
이것이 에이전트가 가진
모든 도구들입니다. 답을 얻기 위해
웹 검색이 필요할 수도 있고
지식 베이스를 찾아봐야 할 수도 있죠.
이러한 작업들을 수행하고 나면
관찰 결과가 다시 LLM으로 돌아가
도구들을 다시 호출할 수 있고
이 비결정적 루프가 계속됩니다.
최종적으로 목표 달성에 필요한
모든 작업을 수행했다고 판단하면
결과를 사용자에게 보냅니다.
이제 이것을 염두에 두고
AI 에이전트가 무엇인지에 대한
명확한 정의와 그 구성 요소들을
이해했으니,
이제 에이전트가 아닌
워크플로우의 예시들을 살펴보겠습니다.
제가 가장 좋아하는 '에이전트가 아닌 것'의
예시부터 시작해보겠습니다.
이 워크플로우의 역할은, 사람들이
자주 만드는 종류의 워크플로우인데,
사용자로부터 특정 주제에 대한 프롬프트를 받아
X(트위터)에 맞는 게시물을 만들고
X에 게시한 다음,
LinkedIn과 블로그에도
같은 작업을 수행하고,
마지막에 LLM을 사용해 각 플랫폼에
게시된 내용을 요약하여
사용자에게 응답을 보내는 것입니다. 이것은
AI 에이전트가 아닙니다. 이것은
단순히 LLM 호출들을 연결한
워크플로우입니다. Anthropic 영상에서 본 것처럼
이는 매우 명확한 정의입니다.
이것을 알 수 있는 방법은
n8n을 보면 알 수 있죠. 참고로
n8n을 모르거나 사용해보지 않았더라도
시각적으로 매우 직관적이어서
이해하기 쉬울 거라 생각합니다.
제가 n8n을 좋아하는 이유는
순차적인 과정을 잘 보여주기 때문입니다. X 게시물을 만들고
게시한 다음, 똑같은 작업을
LinkedIn과 블로그에 수행합니다.
여기에는 어떠한
비결정성도 없습니다. X에 두 번 게시하거나
어떤 이유로 블로그 게시를 건너뛰는 일도 없죠.
만약 실제로 그런 결정들이 있고
LLM이 그것을 제어한다면
그때는 AI 에이전트가 되겠죠.
하지만 이것은 단순히 A, B, C 단계를 거쳐
완료되는 것뿐입니다. 이것은 에이전트가 아니에요.
물론 오해하지 마세요. 이것은
실제로 매우 가치 있는 워크플로우입니다.
사람들이 이런 워크플로우를 자주 만드는 것을 봅니다.
Make나 n8n, Zapier에서 많이 보이는데,
각 플랫폼에 맞는 메시지를 만들기 위해
잘 정의된 시스템 프롬프트와 LLM을 사용하는 것이
매우 중요합니다.
X에 올리는 게시물과
LinkedIn에 올리는 게시물은
매우 다르기 때문이죠.
하지만 이것이 에이전트는 아닙니다.
실제로 테스트를 해보겠습니다.
AI에 대한 X 게시물, LinkedIn 게시물,
그리고 블로그 포스트를 작성해달라고 하면
잘 작동하는 것을 볼 수 있습니다.
이것은 단순한 워크플로우가
AI 에이전트보다 더 나은 좋은 예시입니다.
이것을 에이전트로 만들 수도 있는데,
X 포스트를 만드는 도구와
LinkedIn 포스트를 만드는 도구를 가지고
각각의 작업을 수행하도록
요청할 수 있습니다.
하지만 우리는 이런 비결정성을
원하지 않습니다.
만약 에이전트가 어떤 이유로
환각 상태에 빠져서
X에 두 번 포스팅을 하거나 LinkedIn 포스트를
원하는 대로 만들지 않으면 어떨까요?
우리는 에이전트가
워크플로우를 제어하는 것을 원하지 않습니다.
순차적으로 만들어
일반적인 워크플로우로 만드는 것이 더 좋습니다.
이것이 최종 응답입니다.
각 플랫폼에 게시된 내용의
요약을 보여주는데요.
약간의 오류가 있지만,
요점을 이해하실 수 있을 겁니다.
이것은 매우 분명하게
훌륭한 워크플로우이지만
AI 에이전트는 아니라는 것을 보여줍니다.
이제 다른 예시를 살펴보겠습니다.
이번에는 조금 다른 방식으로 접근해보겠습니다.
다음 예시에서는
n8n 채팅 창에서 시작하는데
여러분이 판단해보시기 바랍니다.
이 워크플로우나 에이전트와 대화를 나누면서
이것이 워크플로우인지 에이전트인지
이것은 기술 스택 전문가입니다.
제가 만들고 싶은 애플리케이션을 설명하면
몇 가지 질문을 통해
어떤 기술을 사용해야 할지
프론트엔드, 백엔드,
데이터베이스 등을
결정하도록 도와줍니다.
대화 내용을 빠르게 넘어가면서
보여드리겠습니다.
여러분이 직접 판단해보세요.
이것이 워크플로우일까요, 아니면 에이전트일까요?
자, 이제 대화를 마쳤습니다.
프론트엔드, 백엔드에 대해 질문했고
AI 코더 사용 여부,
사용자 수 등에 대해 물어봤습니다.
전체 대화가 끝난 후에
프론트엔드에 대한 모든 것을 추천해주는데
여기 보시면
백엔드, 인증 시스템,
내가 선호하는 데이터베이스, LLM,
호스팅까지 꽤 멋지게 추천해줍니다.
이제 여러분께 질문드립니다.
이 정도의 복잡성과
내가 원하는 것을 이해하고
다양한 기술에 대해 판단을 내리는 것을 보면
이것이 목표 달성을 위해
환경에서 동작하는 AI 에이전트일까요?
아니면 단순히 기술 스택을 도와주는
워크플로우나
일반적인 LLM 챗봇일까요?
자, 이제 여러분이 직접 판단해보세요.
n8n 워크플로우로 이동해서
실제로 어떻게 작동하는지 보여드리겠습니다.
지금 바로 전환하겠습니다.
보시다시피 우리가 방금 나눈 전체 대화는
단일 LLM에 의해 진행되었고
이것은 AI 에이전트가 아닙니다.
에이전트가 아닌 이유를 보시면
에이전트 노드의 도구 부분이
그냥 허공에 매달려 있죠.
환경과 상호작용할 수 있는 것이
아무것도 주어지지 않았습니다.
그래서 이건 그냥 일반 챗봇입니다.
에이전트의 기준 중 하나는
특정 목표를 달성하기 위해 환경과
상호작용할 수 있어야 하며, 단순히 챗봇처럼 동작해서는 안 됩니다.
우리가 방금 나눈 전체 대화는
이 멋진 시스템 프롬프트에 의해서만
진행되었기 때문입니다.
기술 스택을 파악하기 위해
도구를 호출하는 것이 전혀 없었고
모든 것이 여기에 정의되어 있었죠.
중요한 점은 이 워크플로우나 챗봇이
다른 것과 달리 비결정적이라는 것입니다.
우리는 얼마나 많은 단계가 필요한지
정확히 알 수 없습니다.
AI 코딩 지원을 파악하는 데
왜냐하면 아마도
질문을 하고 답변을 받은 후
다시 AI 코딩 시스템에 대해 물어볼 수 있고
그 다음에야 프론트엔드나
백엔드에 대해 물어볼 수 있기 때문입니다.
따라서 이는 비결정적이며
우리는 이 대화가
몇 단계가 필요할지 모릅니다.
최종적으로 기술 스택을
파악하기까지 말이죠. 하지만 여전히
이것은 에이전트가 아닙니다.
왜냐하면 어떤 방식으로도
환경과 상호작용하지 않기 때문입니다.
마지막 예시에서는
실제로 X에 게시물을 올리고
LinkedIn에 게시하고 블로그 포스트를 작성하며
환경과 상호작용했지만
순차적이었기 때문에 에이전트가 아니었습니다.
이번 경우는 비결정적이지만
에이전트가 아닙니다.
왜냐하면 환경과
상호작용하지 않기 때문입니다.
두 예시 모두 무엇이 에이전트인지
결정하는 서로 다른 기준을 보여줍니다.
이 경우처럼 단순한 챗봇이거나
이전 케이스처럼 워크플로우인 것과
이제 n8n에서 다른 예시들로 넘어가
실제 AI 에이전트의 예시를
보여드리도록 하겠습니다.
이것이 단순한 워크플로우 이상인
첫 번째 에이전트 예시입니다.
이전 두 예시와 달리
이것은 모든 기준을 충족합니다.
우선 첫째로, 사용자의 목표 달성을 위해
환경과 상호작용할 수 있는
도구들을 가지고 있습니다.
이 에이전트는 Google Docs를 사용하여
장기 메모리와 노트를 관리하는데
정말 멋집니다.
설명란에 링크를 공유하겠습니다.
이것은 제가 발견한 n8n 워크플로우
템플릿 라이브러리에서 가져온 것으로
매우 훌륭한 에이전트입니다.
또한 비결정적인데, 때로는 에이전트가
노트나 장기 메모리에
아무것도 저장할 필요가 없다고 판단하고
다른 때는 저장하기도 합니다. 따라서 어떤 도구를
어떤 도구를 얼마나 많이 호출할지
미리 알 수 없습니다. 여기 예시를 보여드리겠습니다.
지금 직접 대화를 나눠보면서
보여드리도록 하겠습니다.
먼저 기본적인 메시지로 시작해보겠습니다.
'안녕'이라고 보내면, 이 경우에는
어떤 도구도 호출하지 않을 겁니다.
도구가 호출되면 여기 초록색 원이
표시될 텐데, 기본적인 메시지이기 때문에
아무것도 표시되지 않습니다.
하지만 이제 장기 기억에 저장될 만한 것을
물어보도록 하겠습니다.
매우 명시적으로 해보겠습니다.
아주 중요한 내용이라고 말하면서
신발 끈 매는 법을 배워야 한다고 하겠습니다.
좀 단순한 예시이긴 하지만
이제 노트 저장 도구가 호출되는 것을 보실 수 있습니다.
이제 구글 독스에 가보면
에이전트가 저장하기로 결정한 내용이
신발 끈 매는 법을 배워야 한다는 내용이
저장되어 있을 것입니다.
이제 대화를 새로고침 해보겠습니다.
대화 기록에는 아무것도 없지만
이전 내용을 기억할 수 있는 건
전적으로 구글 독스에서
가져온 정보 때문입니다.
워크플로우가 시작될 때
'무엇을 해야 하나요?'라고 물어보겠습니다.
노트에서 정보를 가져와서
노트를 확인해보라는 응답을 합니다.
노트를 확인해보면
신발 끈 매는 법을 배워야 한다고 나옵니다.
보세요, 노트에서 정보를 가져왔고
이번에는 도구를 호출하지 않았습니다.
단순히 질문에 답변만 했기 때문이죠.
이것이 바로 진정한 에이전트입니다.
이 워크플로우는 매우 기본적이지만
꽤 흥미롭습니다.
100% 완벽하게 작동하지는 않습니다.
보셨듯이 노트를 확인하라고
직접 말해야 했지만
여전히 에이전트의 좋은 예시입니다.
이것이 에이전트인 이유는
비결정적이면서도 질문에 답변하는 것이
목표이기 때문입니다.
구글 독스라는 환경을 활용해서 말이죠.
다음 예시를 보여드리게 되어 기쁩니다.
제가 만든 깃허브 에이전트인데
제 유튜브 채널의 AI 에이전트 시리즈를 위해 만들었습니다.
깃허브 저장소 URL이 주어지면
저장소의 구조를 분석할 수 있고
개별 파일을 살펴볼 수도 있습니다.
어떤 파일을 볼지
스스로 선택할 수 있어서
매우 비결정적이며
깃허브라는 환경과 상호작용합니다.
채팅으로 들어가서
데모를 보여드리겠습니다.
제가 최근에 시작한
AI 에이전트 빌더인 아콘(Archon) 저장소를 입력하겠습니다.
계속 개선하면서
여러 버전을 만들어왔는데
각 버전마다 다른 리드미가 있습니다.
각각을 분석해서
각 버전들을 설명하도록 요청할 수 있습니다.
보시다시피 먼저
저장소의 전체 구조를 가져오고
그 다음 네 번에 걸쳐
아콘의 각 버전별
리드미를 분석하기로 결정했고
각 버전의 리드미를 분석한 다음
간단명료하게
설명을 제공합니다.
각 버전에 대한 명확하고 간단한
버전 1, 버전 2, 버전 3에 대한
그리고 네 번째 호출은 아마도
GitHub 저장소의 루트에 있는 README를
분석한 것 같습니다. 여기서 매우 에이전트다운 특징은
도구를 몇 번 호출할지 스스로 결정하고
각각을 어떻게 사용할지 판단했다는 점입니다.
만약 제가 후속 질문을 한다면
도구를 전혀 사용하지 않기로 결정할 수도 있죠.
이것이 바로 에이전트다운 특징입니다.
n8n에서 비결정적이고 환경과 상호작용하는
또 다른 좋은 에이전트의 예시입니다.
마지막으로 에이전트가 아닌 것의 예시로
실제 사례를 들어보겠습니다.
바로 ChatGPT.com인데요,
이것은 실제로 그저
앞서 봤던 텍스트 스택 전문가처럼
대화형 챗봇에 불과합니다.
웹 검색 기능이 활성화되어 있더라도
단순히 웹을 검색하고 그 결과를
LLM의 컨텍스트로 제공할 뿐입니다.
검색을 더 정교화하기 위해
웹을 다시 검색할지 결정하는
에이전트는 아닙니다.
예를 들어 '일론 머스크의
순자산이 얼마인가?' 라고 물으면
웹을 검색하고 그 컨텍스트를
LLM에 제공해 최종 답변을 주지만
잘못된 정보를 찾았을 때
다시 웹을 검색할지
결정할 수는 없습니다.
웹 검색 여부를 결정할 수 있다는 점에서
에이전트라고 할 수도 있지만
그 기본적인 결정 외에는
일반적인 챗봇에 불과합니다.
이것을 Windsurfr와 비교해보면
매우 에이전트다운 특성이 드러나는데
여기서 프롬프트를 주면, 음...
여기 있는 추가 부분을 지우고
제가 사용하는 모델을 업데이트하겠습니다.
방금 Pantic AI와 Windsurfr로
이 에이전트를 만들었고, 이제
사용된 대규모 언어 모델을
변경하고 있습니다. 여기서는
배후에서 일어나는
Windsurfr의 의사결정이 훨씬 많습니다.
파일을 분석하기로 결정하고
도구를 호출하기로 결정합니다.
실제로 제 AI 에이전트 빌더인
Archon을 사용하고 있죠. 매우 에이전트답습니다.
어떤 분석을 할지, 어떤 파일을
편집할지 결정하는 것을
미리 알 수 없기 때문입니다.
하나의 흐름에서 모든 결정을 내립니다.
ChatGPT와 비교하면
훨씬 더 많은 의사결정이
이루어지고 있습니다.
이 영상이 AI 에이전트와
LLM이 내장된 워크플로우의 차이를
이해하는 데 도움이 되었길 바랍니다.
둘 다 매우 가치 있습니다만,
AI 에이전트의 미래가
더 밝다고 생각합니다.
훨씬 더 많은 가능성을 열어주고
강력한 기능을 제공하기 때문입니다.
그래서 제 채널에서는 이것에 초점을 맞춥니다.
이 콘텐츠가 도움이 되었고
AI 에이전트에 대한 더 많은 내용을 기대하신다면
좋아요와 구독 부탁드립니다.
다음 영상에서 만나뵙겠습니다.
감사합니다.