[00:00]
제 이름은 데이비드 안드레이고
[00:01]
A2A 프로토콜에 대해
[00:03]
알아야 할 모든 것을 설명해드리겠습니다. A2A가 무엇일까요?
[00:06]
이것은 구글이 출시한 새로운 표준인
[00:08]
에이전트 투 에이전트 프로토콜입니다.
[00:10]
AI 에이전트와 관련된 큰 문제는
[00:12]
이들이 산재해 있다는 점입니다.
[00:13]
서로 다른 프레임워크, 회사, API,
[00:15]
도구들이 그냥 도처에 있죠.
[00:17]
A2A가 이 문제를 해결합니다. 이것이 AI
[00:19]
에이전트의 미래입니다.
[00:21]
이 영상에서 A2A가 무엇이고 어떻게 사용하는지 보여드리겠습니다.
[00:24]
잠깐 말씀드리면, 저는 현재
[00:25]
Vectal 개발을 도와줄 백엔드
[00:27]
개발자를 구하고 있습니다. 5년 이상
[00:28]
경력자라면, 영상 아래 링크를 통해
[00:30]
지원해주세요. 자, 이제 A2A 프로토콜을
[00:32]
시각적으로 이해하기 쉽게 설명해드리겠습니다.
[00:34]
여기 사용자인 우리가 있고, 이것이
[00:36]
우리의 메인 AI 에이전트입니다.
[00:38]
예를 들어 여러분의 앱을 위해 만든 것이죠.
[00:40]
A2A를 통해 이 클라이언트 에이전트는
[00:43]
어떤 원격 에이전트와도 쉽게 통신할 수 있습니다.
[00:45]
다른 회사, 다른 도구,
[00:47]
다른 프레임워크든 상관없습니다.
[00:48]
에이전트들이 A2A 프로토콜과 호환된다면,
[00:50]
모두가 서로 쉽고 빠르게
[00:52]
통신할 수 있습니다.
[00:54]
이것이 미래의 핵심 기술이 될 것이라고
[00:56]
믿는 이유를 설명하겠습니다.
[00:57]
모두가 저에게 '데이비드, 다음 큰 트렌드가
[01:00]
무엇이냐'고 묻습니다. A2A가 바로 그것입니다.
[01:02]
이 프로토콜의 작동 방식을 배우면
[01:03]
다른 사람들보다 엄청난
[01:05]
이점을 얻을 수 있습니다.
[01:07]
대부분의 사람들은 아직도 MCP가
[01:09]
무엇이고 어떻게 사용하는지도 모릅니다.
[01:11]
그래서 A2A의 작동 방식을 이해하면
[01:13]
쉽게 AI 분야 상위 1%에 들 수 있습니다.
[01:16]
끝까지 시청해주세요.
[01:17]
A2A는 AI 에이전트들의 공통 언어라고 생각하면 됩니다.
[01:20]
영어가 전 세계 사람들이
[01:22]
쉽게 소통할 수 있게 해주는 것처럼
[01:24]
A2A는 서로 다른 코드, 프레임워크,
[01:26]
회사의 AI 에이전트들이
[01:28]
서로 소통할 수 있게 해줍니다.
[01:30]
그리고 설정도 매우 간단합니다.
[01:32]
각 에이전트는 단순히 하나의 HTTP
[01:34]
엔드포인트와 작은 JSON 카드만
[01:36]
노출하면 됩니다. 기본적으로 A2A는 여러분이 만든
[01:39]
AI 에이전트를 이전보다 100배 더 확장 가능하고
[01:42]
미래 지향적으로 만듭니다.
[01:44]
미래를 살짝 엿보자면,
[01:46]
에이전트 투 에이전트 프로토콜에
[01:48]
기여하는 모든 회사들이 있습니다.
[01:50]
이 프로토콜은 구글이 개발했죠.
[01:51]
새로운 AI 에이전트를 만들고
[01:53]
A2A 프로토콜과 호환되게 만들었다고 합시다.
[01:55]
여러분의 에이전트는 제트브레인스나 코히어,
[01:57]
디오이드를 호출하여 그들의 AI 에이전트를
[02:00]
활용하고 그들이 만든 AI 에이전트를
[02:02]
활용할 수 있습니다.
[02:05]
이 프로토콜이 아직 초기 단계지만,
[02:06]
이것이 얼마나 강력해질지는
[02:08]
상상하는 것은 어렵지 않습니다.
[02:11]
이제 A2A가 MCP와 어떻게 다른지
[02:14]
설명하겠습니다. MCP는 도구와 데이터를
[02:17]
AI 에이전트에 연결하는 것을
[02:19]
훨씬 쉽게 만듭니다. 여기
[02:21]
MCP의 예시가 있습니다. 소스
[02:23]
에이전트가 있고, MCP 서버가 있으며,
[02:25]
여러 다른 도구들이 있습니다.
[02:27]
데이터베이스일 수도 있고, 모든 종류의
[02:28]
API, 웹, 무엇이든 될 수 있죠. MCP는
[02:31]
도구와 데이터 연결을 쉽게 만들어주고,
[02:34]
반면에 A2A는
[02:36]
에이전트를 다른 에이전트와
[02:38]
연결하는 것입니다. 여기 당신의 AI
[02:40]
에이전트가 있고, 중간에는
[02:42]
A2A 프로토콜이 있어서 에이전트가
[02:44]
이 프로토콜을 사용하는 다른 모든 에이전트와
[02:47]
통신할 수 있게 해줍니다. 여기서 중요한 점은
[02:49]
이 두 프로토콜 A2A와 MCP가
[02:51]
서로 경쟁 관계가 아니라는 것입니다.
[02:54]
오히려 서로를 매우 잘 보완하며
[02:56]
에이전트 구축과 배포를 쉽게 만듭니다.
[02:58]
여기 MCP와 A2A가 어떻게
[03:00]
함께 작동하는지 보여주는 또 다른 시각자료가 있습니다.
[03:03]
이 훌륭한 그래픽을 만든
[03:04]
분들께 감사드립니다.
[03:05]
여기 보시는 것처럼 에이전트가 있고
[03:07]
다시 말씀드리자면, 메인 AI 에이전트가
[03:09]
A2A 프로토콜을 사용하여
[03:12]
다른 AI 에이전트들과 연결됩니다. 현재
[03:14]
중앙에는 MCP 서버가 있어
[03:15]
AI 에이전트가 MCP 클라이언트를 통해
[03:17]
모든 종류의 프롬프트, 리소스,
[03:20]
도구, 그리고 MCP와 호환되는
[03:22]
모든 것을 사용할 수 있습니다.
[03:24]
이 애니메이션을 보면
[03:25]
AI 에이전트를 MCP나 A2A 같은
[03:28]
프로토콜과 호환되게 만드는 것이
[03:30]
얼마나 강력하고 유용한지 알 수 있습니다.
[03:32]
참고로, A2A 프로토콜에 대한
[03:34]
영상을 더 보고 싶으시다면
[03:36]
구독해 주세요. 현재 시청자의 21%만
[03:38]
구독하고 계십니다. 영상 아래의
[03:40]
구독 버튼을 눌러주세요.
[03:41]
큰 도움이 됩니다.
[03:43]
자, 이제 A2A를
[03:44]
제대로 이해하기 위해서는 네 가지 개념을
[03:47]
알아야 합니다.
[03:48]
첫 번째는 에이전트 카드입니다.
[03:50]
이것은 JSON으로 작성된
[03:53]
에이전트의 명함이라고 생각하면 됩니다.
[03:54]
JavaScript 객체 표기법인 JSON으로
[03:56]
에이전트가 누구이고, 무엇을 할 수 있으며
[03:59]
어디서 어떻게 대화할 수 있는지 알려줍니다.
[04:02]
에이전트 카드를 통해 앱이
[04:03]
작업에 적합한 에이전트를
[04:06]
자동으로 찾을 수 있습니다. 두 번째로
[04:07]
이해해야 할 개념은 A2A 서버입니다.
[04:10]
이는 네트워크에서 실행되는
[04:12]
실시간 봇입니다. 들어오는 요청을
[04:14]
수신하고 작업을 수행한 다음
[04:16]
결과를 반환하거나 필요한 경우
[04:18]
후속 질문을 합니다. A2A 서버는
[04:20]
일관되고 예측 가능한 방식으로
[04:22]
명령을 처리하는
[04:24]
엔진이라고 생각하면 됩니다.
[04:26]
세 번째 핵심 개념은 A2A 클라이언트입니다.
[04:28]
이는 프로그램이나 다른 에이전트가 될 수 있으며
[04:30]
작업 수행을 원할 때 사용합니다. A2A 클라이언트는
[04:32]
에이전트 카드를 읽고 요청을
[04:34]
태스크로 패키징하여 전송하고
[04:37]
응답을 수집합니다. 기본적으로 A2A
[04:39]
클라이언트는 사용자나 시스템과
[04:41]
에이전트 사이의 다리 역할을 합니다.
[04:43]
따라서 각 에이전트마다
[04:45]
커스텀 코드를 작성할 필요가 없으며
[04:47]
이것이 바로 모두가 사용하는 통일된
[04:49]
표준을 가진 핵심 아이디어입니다.
[04:51]
구현하기 전에
[04:52]
알아야 할 개념이 하나 더 있는데
[04:54]
바로 A2A 태스크입니다. 걱정 마세요.
[04:56]
이것이 가장 간단합니다. 태스크는
[04:58]
에이전트에게 맡기는
[05:00]
하나의 할 일입니다. 이는
[05:01]
전체 생명주기 동안 요청을 처리합니다.
[05:03]
제출, 진행 중, 완료 상태를 거치죠. A2A
[05:06]
태스크는 깔끔하고 통일된 방식으로
[05:08]
모든 작은 작업과 에이전트에게 주는
[05:11]
모든 프롬프트를 추적하고 관리하는
[05:13]
깔끔하고 통일된 방법을 제공합니다. 우리가
[05:14]
적절한 시기와 장소에 있다고 생각하는 이유는,
[05:16]
이미 눈치채셨겠지만, 이것이 AI 에이전트
[05:18]
분야에서 큰 breakthrough라는 점입니다.
[05:20]
하지만 아무도 이것에 대해 이야기하지 않죠.
[05:22]
왜일까요? 화려하지 않기 때문입니다.
[05:24]
바이브 코딩도 아니고, 단 하나의
[05:25]
프롬프트로 멋진 웹사이트를 만드는 것도
[05:27]
아닙니다. 조금 더 복잡하죠.
[05:29]
하지만 그렇기 때문에 이것을 배우면
[05:31]
더 큰 이점을 얻을 수 있습니다. 경쟁이
[05:33]
그만큼 적기 때문이죠. 이해를 돕기 위해
[05:35]
비유하자면, TCP/IP 프로토콜, 즉
[05:37]
현재 인터넷이 구동되는 모든 기반이 되는
[05:40]
프로토콜이 처음 나왔을 때
[05:41]
그것에 대해 읽는 것과 같은 상황입니다.
[05:44]
바로 지금이 A2A가 나온 그 주입니다.
[05:46]
자, 이제 만들어보도록 하겠습니다.
[05:48]
여기 GitHub 레포지토리가 있는데,
[05:50]
물론 아래에 링크를 달아두겠습니다. 제가
[05:52]
이 영상에서 만들고 보여드리려는 것은
[05:53]
A2A B2B MCP AI 에이전트입니다.
[05:57]
제가 그냥 말장난을 하는 것 같지만
[06:00]
아닙니다. 이것은 실제 용어이며,
[06:01]
제가 직접 그린 이 멋진 그래픽으로
[06:03]
설명해드리겠습니다. 참고로
[06:05]
이 작품은 저작권이 있습니다. 따라서
[06:07]
이걸 훔치면 고소당하실 겁니다.
[06:08]
어쨌든, 색상 코딩이 보이시죠?
[06:10]
A2A는 에이전트 투 에이전트 프로토콜의
[06:12]
약자입니다. 이것은 서로 다른 AI
[06:13]
에이전트들이 서로 통신하는
[06:15]
방식입니다. B2B는
[06:16]
기업 간 거래를 의미합니다. 이는 단순히
[06:18]
다른 기업에 판매되는 제품이나
[06:20]
서비스를 말합니다. 여기서 보시면
[06:22]
사각형들은 서로 다른 회사,
[06:24]
다른 기업들을 나타냅니다. MCP는
[06:26]
모델 컨텍스트 프로토콜을 의미합니다. 이것은
[06:28]
AI 에이전트가 다른 도구들과 데이터에
[06:30]
쉽게 접근할 수 있게 해줍니다. 제 그래픽에서
[06:32]
초록색은 AI 에이전트를 나타냅니다.
[06:34]
이 원들은 각 회사 내의 서로 다른
[06:36]
에이전트들입니다. 보시다시피
[06:38]
각 에이전트는 서로 다른 MCP,
[06:40]
즉 다른 도구들에 접근할 수 있습니다. A2A
[06:42]
프로토콜 덕분에, 이 모든 기업들은
[06:45]
자신들의 AI 에이전트를 통해 서로
[06:46]
통신할 수 있습니다. 따라서
[06:48]
이메일과 같은 느리고 구식인 방법 대신
[06:50]
(사람들은 9시부터 5시까지만 응답하고
[06:53]
주말에는 전혀 응답하지 않죠),
[06:55]
AI 에이전트를 24/7 가동하여
[06:57]
다른 회사의 에이전트들과
[06:59]
소통할 수 있습니다. 만약 귀사가
[07:01]
다른 회사와 프로젝트를 진행하고 있고
[07:02]
양쪽 모두 A2A 프로토콜의 AI 에이전트를 가지고 있다면,
[07:05]
화장실에 있거나 해변에서
[07:07]
쉬고 있을 때도 일을 진행할 수
[07:08]
있습니다. 심지어 상대 회사의 CEO가
[07:10]
해변에서 쉬고 있을 때도 말이죠.
[07:11]
이것이 미래의 모습입니다.
[07:13]
대부분의 사람들은 이해하지 못합니다.
[07:15]
대부분은 이를 무시하고
[07:16]
넷플릭스나 봅니다. 하지만 정말로
[07:18]
이것에 대해 생각해보면, 오늘
[07:19]
산책하면서 깊이 생각해보세요.
[07:21]
비즈니스의 미래와 AI 에이전트의
[07:22]
미래가 어떤 모습일지
[07:24]
이런 모습일 것입니다.
[07:26]
자, 이제 이 A2A 레포지토리로
[07:27]
시작해보겠습니다. 다시 말씀드리지만
[07:29]
이것은 구글의 오픈소스 저장소입니다.
[07:31]
방금 출시되었는데도
[07:33]
이미 12,000개 이상의 스타를 받았다는 것은
[07:36]
엄청나게 빠르게 인기를 얻고 있다는 뜻이죠.
[07:37]
이제 제가 보여드리겠습니다.
[07:39]
A2A 프로토콜을 사용해서 여러분만의 AI 에이전트를
[07:41]
어떻게 만들 수 있는지 설명하겠습니다.
[07:44]
자, 커서로 전환하겠습니다.
[07:45]
윈도우나 VS 코드 아무거나 사용하셔도 됩니다.
[07:47]
빈 폴더를 하나 열어보겠습니다. 제가 만든
[07:49]
'code'라는 빈 폴더가 여기 있네요.
[07:51]
자, 이제 첫 번째로 해야 할 일은
[07:53]
저장소를 클론하는 것입니다.
[07:54]
맥을 사용하시는 분은 커맨드 J를,
[07:56]
윈도우는 컨트롤 J를 누르거나
[07:59]
터미널에서 새 터미널을 클릭하세요.
[08:01]
기본적으로 터미널을 열어야 합니다.
[08:02]
저장소로 돌아가서
[08:04]
이 저장소를 클론해야 합니다. 코드를 클릭하고 클론을 선택하세요.
[08:07]
코드를 클릭하고 이 URL을 복사하세요.
[08:10]
다시 커서로 돌아와서 git clone을 입력하고
[08:12]
URL을 붙여넣기 하세요. 자, 이제
[08:14]
전체 저장소가 로컬 환경에
[08:16]
클론될 것입니다. 오른쪽을 보면
[08:18]
폴더가 보이는데, 실제로는
[08:19]
왼쪽에서 보실 수 있습니다. A2A 폴더를 열면
[08:21]
저장소의 모든 내용이 여기 있습니다.
[08:23]
모든 폴더와 파일이
[08:25]
동일하게 있어야 합니다.
[08:27]
좋습니다. 터미널을 정리하기 위해 clear를 입력하고
[08:28]
다음 단계로 넘어가겠습니다.
[08:30]
A2A 폴더로 이동해야 합니다. cd A2A를 입력하세요.
[08:33]
잠깐 말씀드리자면, AI 최신 동향을
[08:36]
따라가고 싶으시다면
[08:38]
Vectal을 꼭 사용해보세요. Vectal은
[08:40]
올인원 생산성 앱으로
[08:42]
실제로 시간을 절약해줍니다. 예를 들어,
[08:44]
우리가 새로 추가한
[08:45]
백그라운드 에이전트 기능이 있습니다.
[08:47]
작업을 시작하고 싶을 때
[08:48]
Vectal 에이전트를 활성화하기만 하면
[08:50]
AI 에이전트가 바로 시작됩니다.
[08:52]
추론하고, 웹을 검색하고,
[08:54]
여러분의 작업을 자동으로 처리하며
[08:56]
백그라운드에서 독립적으로
[08:58]
작동합니다. 그리고
[09:00]
Vectal Pro를 사용하시면,
[09:02]
목록의 모든 작업에 대해 이 에이전트를 활성화할 수 있습니다.
[09:04]
작업 수에 상관없이 말이죠.
[09:06]
게다가 Vectal Pro 사용자는
[09:08]
현재 사용 가능한 모든 최신 AI 모델에 접근할 수 있습니다.
[09:10]
대부분의 사람들이 아직도 구식
[09:13]
생산성 앱인 ClickUp이나
[09:15]
To-Doist를 사용하는 동안,
[09:17]
미래를 내다보고 초생산적이 되고 싶은 사람들은
[09:19]
빠르게 Vectal로 전환하고 있습니다.
[09:21]
vectal.ai에 방문해서 한번 사용해보세요.
[09:23]
다시는 뒤돌아보지 않으실 겁니다. 다음으로,
[09:26]
conda 환경을 활성화해야 합니다.
[09:27]
제가 가진 환경 목록을 확인해보겠습니다.
[09:29]
저는 이미 A2A용 환경이 있지만,
[09:31]
여러분이 없다면,
[09:33]
새로운 conda 환경을 어떻게 만드는지 물어보시면 됩니다.
[09:37]
자, conda activate A2A를 입력하겠습니다.
[09:41]
좋습니다. clear를 입력해서 정리하구요.
[09:45]
네, 이렇게 하면
[09:46]
conda 환경이 만들어집니다. 아주 쉽죠.
[09:48]
conda 설치 방법을 모르신다면
[09:50]
이 영상의 어느 시점에서든 적용 가능합니다.
[09:52]
어느 부분에서 막히시거나
[09:54]
이해가 안 되는 부분이 있다면,
[09:56]
스크린샷을 찍어서 ChatGPT에게 물어보세요.
[09:58]
사실 제가 보여드리려고 합니다.
[10:00]
새로운 GPT-4 모델로 작업하는 방법을
[10:02]
새로운 GPT-4가 정말 대단하거든요.
[10:04]
GPT-4와 함께 일하는 방법을 보여드리겠습니다.
[10:07]
GPT-4에 접근할 수 있다는 게
[10:09]
불법처럼 느껴질 정도로 대단한데요.
[10:12]
월 20달러면 사용할 수 있습니다.
[10:14]
물론 저는 프로 요금제로 200달러를 내고 있지만
[10:16]
플러스 요금제로도 GPT-4와 모든 도구들을
[10:18]
사용할 수 있다는 게 정말 놀랍습니다.
[10:20]
자, 이제 A2A에 집중해보겠습니다.
[10:24]
터미널을 다시 열어보죠.
[10:26]
conda 환경에 있네요. 좋습니다.
[10:27]
확인하는 방법을 알려드리자면
[10:29]
파이썬 파일을 열고
[10:32]
오른쪽 하단에서
[10:34]
conda 환경이 활성화되어 있는지 확인하세요.
[10:36]
그러면 생성하는 모든 터미널이
[10:39]
이 환경에서 실행됩니다.
[10:41]
A2A에서는 이게 중요합니다.
[10:43]
A2A를 다시 살펴보고
[10:45]
다음으로 'conda install -c conda-forge uv' 명령어를 실행해야 합니다.
[10:49]
uv는 pip보다 훨씬 빠른 파이썬 패키지 매니저입니다.
[10:52]
이 영상에서 이것을 사용할 겁니다.
[10:55]
이게 설치되는 동안
[10:57]
오른쪽으로 가서
[10:58]
samples Python을 클릭해보세요.
[10:59]
구글이 만든 샘플 AI 에이전트들을 볼 수 있습니다.
[11:02]
이 저장소에서 제공하는 것들은
[11:04]
이미 A2A와 호환됩니다.
[11:06]
agents를 클릭하면
[11:08]
Crew AI가 있는데, 이는 가장 유명한 프레임워크 중 하나입니다.
[11:10]
langraph도 있고 Google ADK도 있습니다.
[11:13]
Google ADK에 대한 영상을 원하시면
[11:14]
댓글로 남겨주세요.
[11:16]
다른 것들도 있지만
[11:18]
이 영상에서는 이 둘이 어떻게 통신하는지
[11:21]
보여드리겠습니다.
[11:22]
이것이 Crew AI용 에이전트이고
[11:24]
이것이 ADK용 에이전트입니다.
[11:26]
둘 다 수정할 건데
[11:31]
cursor를 사용하겠습니다.
[11:33]
확장해보면
[11:34]
컨텍스트에 파일들을 추가하겠습니다.
[11:37]
에이전트 생성
[11:41]
ADK...
[11:44]
이 파일들을 업데이트하겠습니다.
[11:46]
Google ADK 에이전트라는 주석을 추가해서요.
[11:48]
이제 cursor에서 새 채팅을 열고
[11:50]
슬래시 add만 입력하면
[11:53]
열린 모든 파일이 컨텍스트에 추가됩니다.
[11:55]
이건 정말 중요한
[11:57]
강력한 단축키입니다.
[11:59]
사용하지 않으시면 정말 놓치는 겁니다.
[12:01]
두 에이전트 파일의 프롬프트를 업데이트해서
[12:04]
Crew AI 에이전트는 간결하고 명확한 응답을 하고
[12:08]
Google ADK 에이전트는 항상 자세한 설명과
[12:12]
상세한 추론을 제공하도록 하겠습니다.
[12:17]
모든 프롬프트에 대해 철저한 설명을 하도록요.
[12:20]
다시 한 번 강조하자면
[12:22]
에이전트 간 프로토콜은 미래를 위한 준비입니다.
[12:25]
AI 에이전트가 중요해질 거라고
[12:26]
베팅하는 거죠.
[12:28]
우리 모두가 이미 그렇게 믿고 있겠지만
[12:30]
AI 에이전트가 미래라는 걸요.
[12:32]
하지만 여기서 다른 점은
[12:33]
적절한 프레임워크를 선택하는 대신
[12:35]
이게 또 자주 받는 질문인데요.
[12:37]
'어떤 프레임워크로 AI 에이전트를 만들어야 하나요?'
[12:39]
데이비드, 이제는 그게 중요하지 않습니다.
[12:41]
정말로 중요하지 않아요.
[12:42]
A2A와 호환되게만 만든다면
[12:44]
다른 프레임워크의 에이전트들과
[12:47]
상호작용할 수 있습니다.
[12:48]
이것이 제가 이 영상에서
[12:51]
설정할 내용입니다.
[12:52]
잘 봐주세요.
[12:54]
좋아요. Gemini가 프롬프트를 업데이트하지 않았네요.
[12:56]
정말 이상하군요. 아무것도 하지 않았다고
[12:57]
말씀드리겠습니다. 프롬프트만 업데이트하고 다른 건 건드리지 마세요.
[13:01]
이런 일이 가끔 발생하는데,
[13:04]
Gemini 2.5 Pro가 게을러서
[13:06]
작업을 수행하지 않을 때가 있죠.
[13:07]
이럴 때는 그냥
[13:09]
Claude 3.7 Max로 전환하면 됩니다. 이런 문제가 없거든요.
[13:12]
왜 그런지는 모르겠지만요. 자,
[13:14]
여기 있네요. 첫 번째 파일을
[13:16]
업데이트하고 있습니다.
[13:17]
네, 수락하겠습니다. 이제 Create 에이전트입니다.
[13:21]
네, 프롬프트를 다시 생성했네요.
[13:24]
좋아 보이니 수락하겠습니다.
[13:26]
좋습니다. 다음 단계는 샘플을 실행하는 겁니다.
[13:28]
터미널을 다시 열어볼게요.
[13:31]
아, 실행이 완료됐네요.
[13:32]
요청한 패키지가 이미 다 설치되어 있습니다.
[13:34]
아주 좋네요. 터미널을 정리하고
[13:37]
이 폴더로 이동해야 합니다. 맞죠?
[13:39]
samples/python-agent-ci로 이동합니다.
[13:42]
samples/python-agent-ci로 들어가세요.
[13:45]
ci 폴더 안에 있어야 합니다.
[13:47]
자, 다음으로 Google API 키가 필요합니다.
[13:49]
브라우저에 가서
[13:51]
Google AI Studio를 검색하고, 구글 계정으로 로그인한 다음
[13:53]
API 키 받기를 클릭하세요.
[13:55]
API 키는 비밀번호처럼 다루셔야 합니다.
[13:58]
절대 다른 사람과 공유하지 마세요.
[14:01]
여기서 API 키 생성을 클릭하세요.
[14:03]
이제 여기서
[14:05]
Google Cloud 프로젝트를 선택해야 합니다.
[14:06]
없다면 아주 쉽게 만들 수 있어요.
[14:08]
30초면 됩니다.
[14:10]
그리고 API 키 생성을 클릭하면
[14:12]
2초 만에 생성됩니다. 자, 복사하세요.
[14:14]
이 영상을 업로드하기 전에
[14:16]
제 키는 삭제할 거예요. 하지만 시간 있으시다면
[14:18]
시도해 보세요. 자, API 키를
[14:19]
복사했으면, Cursor로 돌아가서
[14:22]
환경 변수로 내보내야 합니다.
[14:24]
잘 보세요. echo를 입력하고
[14:26]
따옴표 안에 'GOOGLE_API_KEY='를 입력하고
[14:30]
키를 붙여넣은 다음 따옴표를
[14:33]
닫고 '> .env'를 입력하세요.
[14:36]
이 명령어를 실행하면
[14:38]
이 Create 폴더에 새로운 환경 파일이
[14:40]
API 키가 포함된 채로
[14:42]
생성됩니다. 만약 터미널이
[14:43]
무서우시다면, 직접
[14:45]
폴더에서 새 파일 .env를 만드셔도 됩니다.
[14:48]
API 키를 입력하고 붙여넣기 하면 되죠.
[14:50]
이제 터미널을 정리하고
[14:52]
'uv run .' 을 입력하고 엔터를 누르세요.
[14:58]
Create 에이전트가 시작되고 있습니다.
[15:00]
이게 시작되는 동안
[15:02]
새 터미널을 열어서
[15:04]
Google AD 에이전트를 시작할 건데요.
[15:06]
여기서는
[15:07]
다른 방법을 보여드리겠습니다.
[15:09]
폴더를 클릭하고 새 파일을 만듭니다.
[15:13]
.env를 만들고 API 키를 붙여넣으세요.
[15:16]
이 새 터미널에서
[15:18]
A2A 폴더로 이동해야 합니다.
[15:20]
오른쪽의 구조를 따라서요.
[15:21]
Code는 제가 만든 폴더입니다.
[15:24]
A2A는 GitHub에서 클론한 메인 폴더죠.
[15:26]
맞죠? A2A입니다. 이제
[15:29]
Google ADK 폴더로 들어가야 하는데
[15:31]
이 명령어를 실행하면 됩니다.
[15:33]
cd samples/python-agents/google-adk를 입력하세요.
[15:36]
자, 여기 폴더명이 보이네요.
[15:38]
터미널을 정리하고
[15:40]
이미 환경 변수를 추가했으니
[15:42]
환경 설정 파일을 수동으로 추가했기 때문에
[15:44]
UV run 명령어만
[15:45]
실행하면 됩니다. 자, 이제
[15:49]
Google ADK 에이전트가 시작되었습니다. 이제
[15:52]
CA 에이전트와 Google ADK
[15:54]
에이전트가 모두 실행 중입니다. 테스트를 위해
[15:56]
브라우저를 열고 새 탭에서
[15:58]
에이전트가 실행 중인 로컬호스트
[16:00]
서버의 URL을 붙여넣으세요.
[16:02]
CA는 10001번 포트이고, Agent SDK는
[16:06]
10002번 포트입니다. 이제
[16:08]
well-known/agent.json으로 이동하여
[16:10]
에이전트의 JSON을 확인할 수 있습니다. 이것은
[16:13]
이미지 생성기 에이전트 설명으로,
[16:15]
고품질 이미지를 주문형으로 생성한다는
[16:16]
내용이 있네요. 다른 하나를 보면,
[16:18]
이것은 환급 처리 에이전트입니다.
[16:21]
이 에이전트는 직원들의
[16:23]
환급 처리를 담당합니다. 보시다시피
[16:25]
이것은 Google의 데모 예제일 뿐이지만,
[16:27]
상상력을 조금만 발휘해보면
[16:29]
이것이 어떤 AI 에이전트든
[16:31]
어떤 프레임워크나 기업의 것이든
[16:33]
이 프로토콜을 사용하여
[16:34]
서로 통신할 수 있다는 것을
[16:36]
알 수 있습니다. 이제
[16:38]
세 번째 터미널을 열고
[16:39]
A2A로 다시 이동하겠습니다. 그리고
[16:42]
이 데모 폴더로 이동한 다음,
[16:44]
실제로는 demo UI로 이동해야 합니다.
[16:47]
UI 폴더에서 마우스 오른쪽 버튼을 클릭하고
[16:51]
Google이 만든 멋진 사용자 인터페이스를
[16:53]
사용할 수 있습니다. UI 폴더에서
[16:55]
마우스 오른쪽 버튼을 클릭하고
[16:57]
env.local을 입력합니다. 여기서
[16:59]
NEXT_PUBLIC_AGENT_URL을 설정하고
[17:01]
첫 번째 것은
[17:03]
localhost:10001로 설정합니다. 터미널에서
[17:06]
npm install을 실행합니다. 이제
[17:07]
두 번째 API 키를 추가할 건데, Google
[17:10]
API 키를 추가하고 이전에 만든
[17:14]
동일한 값을 사용하겠습니다.
[17:16]
새로 만들 필요는 없습니다. 그리고
[17:18]
터미널에서
[17:19]
uv run main.py를 입력합니다. 이렇게 하면
[17:23]
Python UI가 실행됩니다. 98개의 패키지가
[17:26]
362밀리초만에 설치되었네요. 이것이
[17:29]
UV의 힘입니다. 어쨌든, 이 서버가
[17:33]
이 URL에서 시작됩니다. 클릭해서 열어보죠.
[17:35]
이것이 바로 Google이 만든 UI입니다.
[17:38]
매우 단순합니다. API 키를
[17:40]
다시 요구하네요. 그래서
[17:42]
다시 입력하고 저장하겠습니다. 확대해보죠.
[17:45]
채팅을 열어보겠습니다. 아니,
[17:47]
사이드바를 열어보죠. 에이전트를 추가해야 합니다.
[17:49]
에이전트를 클릭하면 아직
[17:51]
없네요. 에이전트 주소를 클릭해야 합니다.
[17:53]
여기 두 개의 주소가 있습니다.
[17:55]
이 에이전트 주소를
[17:56]
여기에 복사하세요.
[17:59]
읽기... 아니요, 실제로는
[18:02]
localhost만 필요합니다. 전체 주소는
[18:03]
필요 없고 localhost만 있으면 됩니다.
[18:06]
주소만 입력하세요.
[18:08]
읽기... 에이전트가 아직
[18:11]
실행 중인지 확인해보죠. 실행 중이네요.
[18:13]
왜 거부되는지 모르겠네요.
[18:14]
HTTP 없이 localhost만 입력해보죠.
[18:17]
읽기... 아, 됐네요.
[18:18]
localhost:10001로 입력해야 합니다.
[18:22]
이것이 이미지 생성기이고,
[18:24]
CI에서 실행 중입니다. UI가 좀
[18:26]
불안정해 보이네요. Google... 누군가
[18:29]
더 나은 UI를 만들어야 할 것 같아요.
[18:31]
네, 좋은 작업은 아니었지만
[18:33]
그리고 다시 말하지만, 이제 막 출시되었어요.
[18:35]
이 모든 것들은 앞으로 더 나아질 거예요. 가장 중요한 건
[18:37]
이 표준이 가져올 영향을 이해하는 것입니다.
[18:40]
이런 표준이 필요했던 이유는
[18:42]
에이전트 분야에 너무 많은 혼란이
[18:44]
있었기 때문이에요. 그게 핵심이죠.
[18:47]
모든 세부사항들은 점차 개선될 거예요.
[18:49]
아시다시피,
[18:50]
ChatGPT의 첫 버전도 지금과 비교하면
[18:52]
형편없었잖아요. 그러니까 이것도 마찬가지예요.
[18:54]
A2A의 첫 번째 버전이니까요. 어쨌든,
[18:57]
이 에이전트를 저장할 건데요.
[18:58]
이제 첫 번째 에이전트가 여기 있네요.
[19:00]
두 번째를 추가해야 합니다.
[19:02]
자, 업로드 버튼을 다시 클릭하고
[19:04]
두 번째를 추가할 건데, 이전처럼
[19:07]
복잡하게 하지 않고 localhost 10002만 입력할게요.
[19:10]
보세요. 환급 에이전트가 나타났네요.
[19:13]
저장하면, 이제 두 개의 에이전트가
[19:15]
추가되었어요. 홈으로 가서
[19:16]
새 대화를 클릭하고 "어떤 AI 에이전트들을
[19:20]
사용할 수 있나요?"라고 물어볼 수 있어요.
[19:24]
엔터를 누르면... 좋아요.
[19:26]
다음과 같은 AI 에이전트들이 있네요.
[19:29]
이미지 생성기와 환급 에이전트예요.
[19:31]
그럼 '초록색 나는 고양이 이미지를 생성해줘'라고
[19:34]
말해볼게요. 물론, 이 AI 에이전트들은
[19:37]
더 나아질 수 있고 이건 그저 데모일 뿐이에요.
[19:39]
오해하지 마세요.
[19:42]
"어머나, 데이비드, 왜
[19:43]
비즈니스 전체를 자동화하는
[19:45]
AI 에이전트를 만들지 않았어요?"라고 하지 마세요.
[19:46]
당연히 이상적으로는 정말 유용한
[19:48]
에이전트 팀을 만들고 싶죠. 하지만
[19:51]
이 영상의 핵심은
[19:52]
A2A 프로토콜을 이해하는 거예요.
[19:54]
지금까지 본 모든 관련 영상들은
[19:56]
실제 구현을 완전히 피했어요.
[19:58]
시작하는 방법도,
[19:59]
레포 클론하는 법도,
[20:00]
셋업하는 방법도 안 보여줬죠. 그냥
[20:03]
기본적인 내용만 읽고 어려운 부분은
[20:05]
전부 피했어요. 그게 차이점이에요.
[20:07]
저는 여러분에게 어려운 부분을
[20:08]
보여주고 싶었어요.
[20:10]
많은 오류가 있었지만, 모두 해결했고
[20:12]
이제 이 UI가 두 개의 에이전트와 함께
[20:14]
작동하고 있어요. 음, 이게 왜
[20:16]
멈춰있는지 모르겠네요. 아마도
[20:18]
이미지를 생성 중인 것 같아요. 참고로,
[20:20]
HTTP 요청 주기를 변경할 수 있는데,
[20:23]
1초는 좀 과하거든요.
[20:24]
터미널을 보면 매초마다
[20:27]
요청을 보내고 있어요.
[20:29]
이건 너무 많은 요청이에요. 음,
[20:31]
이게 싫다면 그냥
[20:34]
5초로 바꾸세요.
[20:35]
그게 좋은 균형인 것 같아요. 어쨌든, 이게
[20:38]
A2A 프로토콜이에요. 물론 UI는
[20:40]
개선될 거고, 모든 게 나아질 거예요.
[20:42]
AI 에이전트들도 더 유용해질 거구요. 하지만
[20:44]
핵심은 어떤 프레임워크를
[20:46]
사용하든 상관없다는 거예요.
[20:47]
이게 핵심 포인트예요. 우리는
[20:49]
여기 CI에서 실행되는 하나의 AI 에이전트와
[20:52]
Google SDK에서 실행되는 두 번째 에이전트가 있고
[20:57]
[20:57]
이들이 A2A 프로토콜을 통해
[21:00]
서로 통신할 수 있다는 거예요. 이게
[21:03]
핵심이고, 이것이 구글이
[21:05]
이 프로토콜로 이뤄낸 혁신이에요.
[21:06]
그리고 다시 말하지만, 여러분은
[21:09]
langraph, LlamaIndex, Marvin, Semantic
[21:12]
Kernel이나 다른 OpenAI 도구들도 사용할 수 있어요.
[21:15]
스웜이나 OpenAI Agents SDK 등
[21:18]
A2A 프로토콜에 연결할 수 있는
[21:20]
모든 것을 사용할 수 있습니다.
[21:22]
자세한 내용은 공식 리포지토리를 확인하세요.
[21:24]
영상 아래에 링크를 첨부할 예정입니다.
[21:25]
구글의 공식 문서를 꼭 읽어보시길 바랍니다.
[21:28]
사실 이 주제로만
[21:29]
여러 영상을 만들 수 있을 정도예요.
[21:31]
A2A 프로토콜에 대해
[21:33]
더 많은 영상을 원하시면 댓글로 알려주세요.
[21:35]
아직 다루지 않은 내용이 많습니다.
[21:37]
더 고급 개념들도 있는데
[21:39]
지금은 에이전트 카드,
[21:40]
A2A 서버, 클라이언트, 태스크만 다뤘죠.
[21:43]
하지만 이게 AI 에이전트의 미래입니다.
[21:45]
이 개념을 이해하고
[21:47]
이것이 시작점이라는 걸 아는 것이
[21:49]
중요합니다.
[21:51]
이제 막 시작하는 첫 달입니다.
[21:53]
A2A 프로토콜의 시작점이에요.
[21:55]
앞으로 더욱 발전하고 사용하기 쉬워질 것이며,
[21:58]
UI도 더 좋아질 것입니다.
[22:00]
세부적인 것들은 걱정하지 마세요.
[22:02]
에러나 디테일에 너무 신경 쓰지 마시고
[22:04]
큰 그림을 보세요.
[22:05]
3개월, 6개월, 12개월 후를 내다보고
[22:07]
상상해보세요.
[22:09]
지난 3개월간의 발전 속도만 봐도
[22:12]
엄청났잖아요?
[22:13]
3개월 전만 해도
[22:15]
MCP를 쓰는 사람이 거의 없었어요.
[22:16]
제가 MCP 첫 영상을 올린 게 4개월 전인데,
[22:18]
그건 제가 일찍 시작했기 때문이죠.
[22:20]
그래서 이 채널을 보시는 분들도
[22:22]
A2A와 앞으로 나올
[22:24]
혁신적인 기술들을 일찍 접하실 수 있을 겁니다.
[22:27]
다시 한 번 말씀드리지만,
[22:28]
A2A에 대한 추가 영상을 원하시면
[22:31]
더 심화된 내용이나
[22:33]
고급 에이전트 팀 구축 방법 등
[22:35]
원하시는 주제를 댓글로 남겨주세요.
[22:37]
그리고 현재 태스크 매니저나
[22:38]
생산성 앱을 사용하고 계신다면
[22:41]
Vectal로 전환하세요.
[22:43]
앞으로 많은 시간을 절약하실 수 있습니다.
[22:44]
아직 태스크 관리 도구를 사용하지 않으신다면,
[22:47]
시작하시는 게 좋습니다.
[22:48]
할 일 목록은 어딘가에 있어야 하죠.
[22:50]
그리고 그걸 관리하실 거라면,
[22:51]
Vector가 완벽한 선택입니다.
[22:52]
세계 최고의 AI 모델을 기반으로 한
[22:54]
고급 AI 에이전트들이 Vector 안에서
[22:56]
작동하고 있기 때문입니다.
[22:58]
vector.ai에 방문하셔서
[23:00]
가입하세요. 완전히 무료입니다.
[23:02]
하지만 심각한 사용자라면,
[23:04]
Vector Pro로 업그레이드하셔서
[23:05]
최고의 모델들과
[23:07]
백그라운드 실행, 무제한 사고,
[23:08]
울트라 검색 등 모든 기능을
[23:10]
사용해보세요. Vector.ai에 방문하셔서
[23:12]
한번 시도해보세요.
[23:14]
시청해주셔서 감사합니다.
[23:15]
새로운 것을 배우셨길 바라며,
[23:17]
다음에 또 만나요. 안녕히 계세요.