[00:00]
여러분을 위해 모든 AI 지식을 정리해 드렸습니다.
[00:01]
2025년에 AI에 대해 알아야 할 모든 것을
[00:03]
제 관점에서 요약본으로 만들었습니다.
[00:05]
초급부터 중급, 고급까지 다루면서
[00:08]
각 주제마다 집중 강의를 제공하고
[00:09]
더 깊이 알고 싶다면 추가 자료도
[00:11]
준비해 두었습니다.
[00:12]
이 영상을 끝까지 보시면
[00:14]
전체 인구의 99%보다
[00:16]
AI에 대해 더 많이 알게 될 것입니다.
[00:17]
단, 정보를 제대로 흡수한다면 말이죠.
[00:20]
그래서 영상 중간중간
[00:22]
작은 평가 문제들을 넣어두었습니다.
[00:24]
집중해서 보세요.
[00:25]
시작합니다!
[00:26]
이 영상의 일부는 Retool이 후원합니다.
[00:29]
영상 구성을 말씀드리면,
[00:30]
먼저 AI의 기본 정의와
[00:32]
작동 원리를 살펴보겠습니다.
[00:33]
그다음 프롬프팅을 다루고,
[00:36]
요즘 핫한 AI 에이전트,
[00:38]
그리고 AI 보조 코딩을 다룹니다.
[00:41]
바이브 코딩이라고 불리는
[00:42]
애플리케이션 개발 방식과
[00:44]
마지막으로 2025년 하반기
[00:46]
주목할 신기술들을 살펴보겠습니다.
[00:48]
먼저 인공지능의 정의부터
[00:50]
시작해보겠습니다.
[00:52]
인공지능은 일반적으로
[00:54]
인간의 지능과 관련된
[00:56]
인지 과업을 수행할 수 있는
[00:58]
컴퓨터 프로그램을 말합니다.
[01:00]
AI 분야는 오랜 역사를 가지고 있고,
[01:02]
전통적인 인공지능의 예로는,
[01:04]
예전에는 머신러닝이라고 불렀던
[01:06]
구글 검색 알고리즘이나
[01:08]
이런 영상을 추천해주는
[01:09]
유튜브 추천 시스템 등이 있습니다.
[01:11]
하지만 요즘 우리가 AI라고 부르는 것은
[01:13]
생성형 AI라고 불리는
[01:15]
인공지능의 특정 하위분야로,
[01:18]
텍스트, 이미지, 오디오, 비디오 등
[01:20]
새로운 콘텐츠를 생성할 수 있는
[01:21]
기술입니다.
[01:23]
가장 인기 있는 생성형 AI 모델은
[01:25]
텍스트를 처리해서 텍스트를 출력하는
[01:27]
대규모 언어모델, 즉 LLM입니다.
[01:29]
대규모 언어모델의 예로는
[01:32]
OpenAI의 GPT 계열,
[01:34]
구글의 Gemini,
[01:36]
그리고 Anthropic의 Claude 모델들이 있습니다.
[01:38]
요즘에는 정말 다양한 종류의 모델들이 있고
[01:41]
많은 모델들이 기본적으로 멀티모달합니다.
[01:43]
이는 텍스트뿐만 아니라
[01:45]
이미지, 오디오, 비디오도
[01:47]
입력하고 출력할 수 있다는 뜻입니다.
[01:49]
여러분이 좋아하는 GPT-4o나
[01:51]
Gemini 2.5 Pro 같은 모델들이 모두 멀티모달입니다.
[01:54]
이제 AI 세계에서 사용되는
[01:56]
기본 핵심 용어들을 알게 되었습니다.
[01:58]
이제 이 섹션의
[02:00]
퀴즈를 화면에 띄워드릴게요.
[02:02]
댓글에 답변을
[02:03]
남겨주세요.
[02:05]
또한 이런 생성형 AI 모델들에 대한
[02:07]
더 자세한 내용을 원한다면,
[02:09]
모델의 내부 구조 깊이 파보기,
[02:11]
직장에서의 활용 방법,
[02:12]
그리고 AI의 책임감 있는 사용법까지,
[02:14]
구글의 8시간짜리 AI 필수 과정을
[02:16]
15분으로 압축한 영상을
[02:18]
여기 링크로 걸어두었으니
[02:19]
확인해보세요.
[02:21]
하지만 지금은 다음 섹션으로 넘어가서
[02:23]
실제로 어떻게 활용하는지
[02:25]
알아보겠습니다.
[02:27]
프롬프팅을 통해 이러한 AI 모델을 최대한 활용하는 방법에 대해 알아보겠습니다.
[02:29]
먼저 프롬프팅이 무엇인지 정의해보겠습니다.
[02:31]
프롬프팅은 생성형 AI 도구에 특정한 지시사항을 제공하여
[02:33]
새로운 정보를 받거나 원하는 작업 결과를
[02:36]
달성하는 과정입니다.
[02:38]
이는 텍스트, 이미지, 오디오, 비디오, 심지어
[02:40]
코드를 통해서도 가능합니다.
[02:42]
프롬프팅은 여러분이 배울 수 있는
[02:44]
가장 높은 투자 수익률을 가진 스킬입니다.
[02:46]
또한 다른 모든 고급 AI 스킬의
[02:48]
기초가 됩니다.
[02:50]
이는 프롬프팅이 AI 모델과
[02:51]
소통하는 방법이기 때문에 당연한 일입니다.
[02:53]
아무리 좋은 모델, 좋은 도구,
[02:55]
좋은 무언가를 가지고 있어도
[02:57]
상호작용하는 방법을 모르면
[02:58]
여전히 쓸모없기 때문입니다.
[03:00]
초보자로서 프롬프팅을 시작하고
[03:02]
연습하고 싶다면
[03:04]
첫 번째 단계는 여러분이 좋아하는
[03:06]
AI 챗봇을 선택하는 것입니다.
[03:08]
ChatGPT든 Gemini든 Claude든 여러분이 좋아하는
[03:11]
무엇이든 상관없습니다.
[03:13]
다음으로, 두 가지 기억법을 알려드리겠는데
[03:15]
이를 기억하고 구현할 수 있다면
[03:17]
전체 인구의 98%보다 프롬프팅을
[03:19]
더 잘할 수 있게 됩니다.
[03:21]
첫 번째는 제가 '작은 게들이 거대한 이구아나를 탄다'
[03:23]
프레임워크라고 부르는 것으로
[03:26]
작업, 맥락, 자원, 평가, 반복을
[03:28]
의미합니다.
[03:30]
프롬프트를 작성할 때
[03:31]
가장 먼저 생각해야 할 것은
[03:33]
AI가 수행했으면 하는 작업입니다.
[03:35]
AI가 무엇을 하길 원하는가요?
[03:37]
예를 들어, AI가 새로운 문어 굿즈 라인을
[03:39]
마케팅할 인스타그램 게시물을
[03:41]
만드는 데 도움을 주길 원할 수 있습니다.
[03:43]
그냥 '새로운 문어 굿즈 라인을 마케팅하는
[03:45]
인스타그램 게시물을 만들어줘'라고
[03:47]
프롬프트를 입력할 수 있습니다.
[03:49]
그러면 괜찮은 결과를 얻을 수 있겠지만
[03:51]
결과를 훨씬 더 좋게 만들 수 있습니다.
[03:54]
먼저 AI에게 전문 인스타그램 인플루언서 역할을
[03:56]
하도록 지시하여 페르소나를 추가할 수 있습니다.
[03:58]
이렇게 하면 AI가 인스타그램 인플루언서의
[04:00]
역할을 맡고 그 특정 도메인 지식을 활용하여
[04:02]
더 나은 인스타그램 게시물을 만들 수 있습니다.
[04:04]
또한 원하는 출력 형식도 추가할 수 있습니다.
[04:06]
현재 기본값은 해시태그가 포함된
[04:08]
일반적인 캡션이죠?
[04:10]
하지만 좀 더 구조화된
[04:11]
형태를 원할 수도 있습니다.
[04:13]
문어에 대한 재미있는 사실로 캡션을 시작하고
[04:15]
그 다음에 공지사항을 넣고
[04:17]
관련 해시태그 3개로
[04:18]
마무리하도록 요청할 수 있습니다.
[04:21]
좋습니다. 이제 훨씬 더 나아 보이지만
[04:23]
여전히 할 수 있는 일이 많습니다.
[04:24]
이 프레임워크의 다음 부분은 맥락입니다.
[04:27]
일반적인 경험 법칙은
[04:28]
AI에게 더 많은 맥락을 제공할수록
[04:30]
더 구체적이고 더 좋은 결과를
[04:32]
얻을 수 있다는 것입니다.
[04:34]
지금 당장 제공할 수 있는
[04:35]
가장 분명한 맥락은
[04:36]
실제로 판매하고 있는 굿즈의
[04:38]
사진들입니다.
[04:40]
또한 우리 회사에 대한 배경 정보도
[04:41]
추가할 수 있습니다. 우리 회사는 Lonely Octopus라고 하고
[04:44]
사람들에게 AI 스킬을 가르치는 회사입니다.
[04:46]
최근 AI 에이전트 부트캠프 같은 것을 진행했는데
[04:47]
참고로 지난번에는 대기자 명단을 통해
[04:49]
단 40시간 만에 매진되었습니다.
[04:51]
그래서 곧 새로운 모집을 시작할 예정입니다.
[04:52]
관심 있으시면 대기자 명단에
[04:54]
등록해 주세요.
[04:55]
여기 링크해 드릴게요.
[04:56]
설명란에도 링크가 있습니다.
[04:58]
어쨌든, AI에게 줄 수 있는
[04:59]
추가 컨텍스트는 우리 마스코트인데,
[05:01]
여기 굿즈에 있는 이것은 '잉키'라고 불립니다.
[05:04]
우리는 출시 날짜와
[05:05]
굿즈의 타겟 오디언스에 대해서도
[05:07]
더 구체적으로 설명할 수 있습니다.
[05:08]
20세부터 40세까지의 사람들,
[05:10]
주로 직장인들 같은 식으로 말이죠.
[05:12]
이런 컨텍스트가 있으면
[05:13]
결과가 훨씬 더 정확하고
[05:16]
원하는 것에 특화될 것입니다.
[05:18]
하지만 더 잘할 수 있습니다.
[05:19]
그게 바로 프레임워크의
[05:20]
다음 단계인 참조입니다.
[05:22]
여기서 여러분이 좋아하는
[05:24]
다른 인스타그램 포스트 예시를
[05:25]
제공할 수 있습니다. 이렇게 하면
[05:28]
AI가 이 예시에서 영감을 얻을 수 있습니다.
[05:29]
예시를 제공하는 것은 정말 강력한데
[05:31]
아무리 말로 설명해도
[05:32]
예시를 하나 제공하면
[05:34]
거기에 담을 수 있는 것들이 너무 많아서
[05:36]
뉘앙스를 포착하고
[05:38]
결과에 반영할 수 있습니다.
[05:40]
그리고 짜잔, 엔터를 누르면
[05:42]
인스타그램 포스트가 완성됩니다.
[05:44]
이제 평가해야 합니다.
[05:45]
마음에 드시나요? 조정하거나
[05:47]
바꾸고 싶은 것이 있나요?
[05:48]
그렇다면 프레임워크의 마지막 단계인
[05:50]
반복으로 넘어갑니다. AI 모델과
[05:52]
상호작용할 때는 매우 반복적인 과정입니다.
[05:54]
처음에 원하는 것을 얻지 못해도
[05:55]
이것을 좀 조정해달라고 하거나
[05:57]
여기에 뭔가 추가해달라고 하거나
[05:58]
색상을 바꿔달라고 하면서
[06:01]
AI와 함께 작업해서
[06:02]
최종적으로 원하는 결과를 얻을 수 있습니다.
[06:05]
작은 게들이 거대한 이구아나를 탑니다.
[06:06]
이 기억법과 사용법을 기억할 수 있다면
[06:08]
프롬프트 작성에서 80%의 사람들보다
[06:10]
뛰어날 것입니다. 88%라고 하죠.
[06:12]
중국에서 행운의 숫자니까요.
[06:15]
하지만 인구의 98%보다
[06:16]
뛰어나고 싶다면 한 가지
[06:18]
프레임워크를 더 알려드리겠습니다.
[06:20]
작은 게들이 거대한 이구아나를 타는
[06:21]
프레임워크를 사용했는데도
[06:23]
결과가 아직 만족스럽지 않을 때입니다.
[06:25]
이때 '라면이 비극적인 바보들을 구한다'
[06:27]
프레임워크를 사용해서
[06:29]
한 단계 더 향상시킬 수 있습니다.
[06:31]
프레임워크의 첫 번째 부분은
[06:32]
작은 게들이 거대한 이구아나를 타는
[06:34]
프레임워크를 다시 검토하는 것입니다.
[06:35]
페르소나 같은 것을 더 추가할 수 있는지 보세요.
[06:37]
아웃풋에 대해 더 자세히 설명하고
[06:39]
더 많은 참조를 추가하세요.
[06:40]
또한 뭔가를 빼는 것도 고려해보세요.
[06:42]
AI를 혼란스럽게 할 수 있는
[06:43]
상충되는 정보가 있나요?
[06:45]
프레임워크의 두 번째 부분은
[06:48]
프롬프트를 더 짧은 문장으로
[06:50]
나누는 것입니다. AI와 대화하는 것은
[06:52]
사람과 대화하는 것과 비슷해서
[06:54]
말을 마구 쏟아내면서
[06:56]
이것저것 많이 말하면
[06:58]
AI가 혼란스러워할 수 있습니다.
[07:00]
그래서 말하는 내용을
[07:01]
여기저기 중언부언하는 대신에
[07:03]
그냥 '이거 하고, 저거 하고, 다음 이거'처럼
[07:04]
명확하게 하면 됩니다. 이해되죠?
[07:09]
세 번째 프레임워크는 다양한 표현 방식과
[07:11]
유사한 작업으로 접근해보는 것입니다.
[07:13]
예를 들어, AI에게 연설문 작성을
[07:14]
도와달라고 했는데 뭔가 아쉽죠?
[07:16]
원하는 만큼 좋지 않을 때
[07:18]
질문을 다시 구성해볼 수 있어요.
[07:19]
'연설문을 써줘' 대신에
[07:21]
'내가 전달하고 싶은 메시지를
[07:22]
보여주는 스토리를 써줘'
[07:24]
라고 말해보세요.
[07:27]
결국 좋은 연설이란
[07:28]
매력적이고 감동적인 스토리니까요.
[07:30]
안녕하세요. 미래에서 온 티나입니다.
[07:32]
오스틴에서 홍콩으로 막 돌아왔는데
[07:34]
시차적응 중에
[07:37]
이 프레임워크의 마지막 부분을
[07:39]
녹화하는 걸 깜빡했네요.
[07:41]
그래서 지금 하려고 하는데
[07:43]
바로 제약조건을 도입하는 것입니다.
[07:45]
주변에 이런 친구 있잖아요?
[07:46]
아니면 여러분이 그런 친구일 수도 있고요.
[07:48]
누군가 '점심 뭐 먹을래?'라고 물으면
[07:50]
'아무거나요'라고 대답하는
[07:51]
그런 친구. 전혀 도움이 안 되죠.
[07:56]
마찬가지로 AI의 결과물이
[07:57]
뭔가 아쉽다고 느끼면
[07:58]
제약조건을 도입해서
[08:00]
더 구체적이고 타겟팅된
[08:02]
결과를 얻을 수 있어요.
[08:04]
예를 들어 텍사스 횡단 로드트립용
[08:06]
플레이리스트를 만들고 있는데
[08:08]
별로 마음에 들지 않는다면
[08:09]
'여름에는 컨트리 음악만
[08:11]
포함해줘'같은 제약조건을
[08:12]
추가할 수 있어요. 훨씬 더 적합한 분위기가 나오죠.
[08:15]
자, 이제 과거의 티나로 돌아가겠습니다.
[08:18]
이해했나요? '라면이 바보들을 구한다'
[08:20]
이 두 프레임워크를 함께 사용하면
[08:22]
여러분은 98%의 사람들보다 프롬프팅을 잘하게 될 거예요.
[08:24]
그런데 말이죠, 이 프레임워크들을
[08:26]
제가 혼자 만든 건 아니에요.
[08:27]
저는 멋진 기억술에 대해서만
[08:29]
책임집니다. 실제 프레임워크는
[08:30]
구글에서 나온 것이거든요.
[08:32]
그래서 더 깊이 파고들어서
[08:34]
99%나 심지어 100%의 사람들보다
[08:36]
프롬프팅을 잘하고 싶다면
[08:38]
링크로 연결해드릴 이 영상을
[08:40]
확인해보시길 추천해요.
[08:41]
구글의 프롬프팅 과정을 요약한 영상인데
[08:43]
지금까지 찾은 것 중 최고의
[08:44]
일반적인 프롬프팅 코스예요.
[08:46]
또한 특정 모델들을 위한
[08:47]
프롬프트 생성기들도 확인해보세요.
[08:50]
OpenAI, Gemini,
[08:51]
Anthropic에서 제공하는 것들이 있어요.
[08:54]
이런 도구들은 첫 번째 초안을 만들고
[08:55]
특정 모델들을 최대한 활용하는 데
[08:57]
도움이 됩니다.
[08:59]
프롬프팅이라는 스킬이
[09:00]
obsolete해질 거라고 생각하는 분들에게
[09:02]
다시 생각해보라고 말하고 싶어요.
[09:04]
특히 에이전트 구축이나 코딩 같은
[09:06]
고급 애플리케이션에서는
[09:08]
프롬프팅이 그 어느 때보다
[09:09]
중요해지고 있어요.
[09:11]
모든 것을 하나로 묶어서
[09:13]
일관되게 원하는 결과를 얻게 해주는
[09:15]
접착제 같은 역할이거든요.
[09:17]
자, 고급 스킬 얘기가 나온 김에
[09:20]
다음 주제인 에이전트로 넘어가 보겠습니다. AI 에이전트는 소프트웨어 시스템으로
[09:23]
AI를 활용해 사용자를 대신해 목표를 추구하고 작업을 완료하는 시스템입니다.
[09:25]
AI 에이전트라고 하면 보통
[09:28]
특정 역할의 AI 버전을 말합니다.
[09:30]
예를 들어, 고객 서비스 AI 에이전트는
[09:32]
이메일을 받을 수 있어야 합니다.
[09:34]
누군가가 '비밀번호를 잊어버려서'
[09:36]
'로그인할 수 없어요'라고 말하면
[09:38]
그 이메일에 답장할 수 있어야 하고
[09:40]
웹사이트의 비밀번호 찾기 페이지를
[09:41]
참조할 수 있어야 합니다.
[09:42]
현재로서는 모든 일을 할 수는 없고
[09:45]
고객 서비스 담당자가 받는
[09:47]
모든 문의를 처리할 수는 없지만,
[09:48]
사람들이 가질 수 있는
[09:50]
일반적이고 흔한 질문들은
[09:53]
모두 자율적으로 처리할 수 있습니다.
[09:56]
마찬가지로 코딩 에이전트의 경우,
[09:58]
잘 프롬프트하고 웹 애플리케이션을
[10:00]
만들어 달라고 요청하면
[10:02]
그 웹 애플리케이션의 MVP 버전을
[10:04]
만들어서 돌려줄 수 있습니다.
[10:06]
물론 여러 기능을 추가하고
[10:08]
조정해야 하지만,
[10:10]
첫 번째 버전의 코드는 작성할 수 있습니다.
[10:11]
AI 에이전트는 많은 관심과
[10:13]
막대한 투자가 이뤄지는 분야이며
[10:15]
시간이 지날수록 더욱 발전하여
[10:16]
모든 종류의 제품과 비즈니스에
[10:18]
통합될 것으로 기대합니다.
[10:19]
사실 AI 에이전트에 대해
[10:21]
제가 들어본 가장 귀중한 조언은
[10:23]
YC 비디오에서 나온 것인데,
[10:24]
모든 SaaS 회사에는
[10:27]
수직적 AI 에이전트 버전이 있을 것이라는 겁니다.
[10:29]
SaaS 유니콘 기업마다
[10:31]
수직적 AI 유니콘
[10:33]
대응 기업이 있다고 상상할 수 있습니다.
[10:36]
그럼 AI 에이전트를 구성하는 요소는
[10:38]
정확히 무엇일까요?
[10:40]
많은 프레임워크가 있지만
[10:42]
지금까지 본 것 중 가장 좋은 것은
[10:44]
OpenAI에서 나온 것입니다.
[10:46]
AI 에이전트를 구성하는 6가지 요소를 제시합니다.
[10:48]
첫 번째는 실제 AI 모델입니다.
[10:51]
모델 없이는 AI 에이전트가 있을 수 없죠.
[10:53]
이것은 AI 에이전트의 추론과
[10:55]
의사결정 능력을 구동하는 엔진입니다.
[10:56]
두 번째는 도구입니다.
[10:59]
AI 에이전트에 다양한 도구를 제공하면
[11:01]
다양한 인터페이스와 상호작용하고
[11:03]
다양한 정보에 접근할 수 있게 됩니다.
[11:05]
예를 들어, AI 에이전트에
[11:07]
이메일 도구를 제공하면
[11:08]
이메일 계정에 접근하여
[11:10]
대신 이메일을 보낼 수 있습니다.
[11:12]
다음은 지식과 메모리입니다.
[11:15]
에이전트에 회사의 특정 데이터베이스
[11:16]
접근 권한을 제공하면
[11:18]
질문에 답하고 회사 특정 데이터를
[11:21]
분석할 수 있습니다.
[11:22]
메모리는 특정 유형의 에이전트에
[11:24]
중요합니다.
[11:26]
예를 들어 치료 에이전트가 있고
[11:28]
정말 좋은 세션을 가졌는데
[11:31]
다음번에는 무슨 얘기를 했는지
[11:32]
완전히 잊어버린다면
[11:33]
좋지 않겠죠.
[11:34]
그래서 에이전트가 메모리에
[11:36]
접근할 수 있게 해서
[11:38]
이전에 가진 모든 세션을
[11:40]
기억할 수 있게 하는 것입니다.
[11:41]
그리고 오디오와 음성 기능이 있습니다.
[11:43]
이는 AI 에이전트가 자연어를 통해
[11:44]
상호작용할 수 있는 능력을 제공합니다.
[11:46]
자연어로 상호작용할 수 있는 기능을 제공합니다.
[11:48]
다양한 언어로 AI와 자연스럽게 대화할 수 있죠.
[11:50]
그리고 다양한 언어로 소통이 가능합니다.
[11:51]
다음으로 가드레일이 있습니다.
[11:54]
AI 에이전트가 통제를 벗어나서
[11:56]
의도하지 않은 행동을 하면 안 되겠죠.
[11:57]
그래서 AI 에이전트를 통제하는 시스템이 있습니다.
[11:59]
AI 에이전트를 안전하게 관리하는 거죠.
[12:01]
마지막으로 오케스트레이션이 있습니다.
[12:03]
이는 에이전트를 특정 환경에 배포하고,
[12:05]
모니터링하며, 시간이 지남에 따라 개선할 수 있는 프로세스입니다.
[12:07]
AI 에이전트를 구축한 후에는
[12:09]
그냥 방치하고 알아서 작동하길 바라면 안 됩니다.
[12:11]
AI 에이전트 이야기가 나왔으니,
[12:12]
Retool이 최근 출시한
[12:14]
엔터프라이즈급 에이전트 개발 플랫폼을 소개해드리겠습니다.
[12:16]
현재 AI 데모를 만드는 것과
[12:18]
실제 비즈니스에서 유용한 AI를 만드는 것
[12:19]
사이에는 여전히 큰 격차가 있습니다.
[12:21]
Retool을 사용하면 실제 시스템에 연결되어
[12:23]
실제 작업을 수행하는 앱을 구축할 수 있습니다.
[12:25]
클로드, 제미나이, OpenAI 등
[12:26]
어떤 언어 모델이든 사용할 수 있습니다.
[12:28]
에이전트는 단순히 채팅만 하는 것이 아니라
[12:30]
데이터베이스에서 실제로 읽고 쓸 수 있습니다.
[12:32]
또한 성능 추적을 위한 테스트와 이메일,
[12:33]
모니터링, 접근 제어 등을 포함한
[12:35]
완전한 엔드투엔드 지원을 제공합니다.
[12:37]
이런 기능들은 화려하지 않지만
[12:39]
실제 비즈니스 구현에는 정말 중요합니다.
[12:41]
Retool과 AI를 함께 사용하는 회사들은
[12:43]
이미 정말 인상적인 결과를 보고 있습니다.
[12:45]
예를 들어, 텍사스 대학교 의료센터는
[12:46]
진단 역량을 10배나 향상시켰습니다.
[12:48]
이미 10,000개 이상의 회사가
[12:50]
Retool을 사용하고 있습니다.
[12:51]
그냥 인상적으로 보이는 것이 아니라
[12:53]
실제로 유용한 AI를 구축하고 싶으시다면
[12:55]
retool.com/tina를 확인해보세요.
[12:57]
설명란에도 링크를 달아두었습니다.
[12:59]
이 영상 부분을 후원해주신
[13:01]
Retool에게 진심으로 감사드립니다.
[13:02]
정리하자면, 모델은 지능을 제공하고,
[13:04]
도구는 행동을 가능하게 하며,
[13:05]
메모리와 지식은 의사결정에 정보를 제공합니다.
[13:08]
음성과 오디오는 자연스러운 상호작용을 가능하게 하고,
[13:11]
가드레일은 안전을 보장하며,
[13:14]
오케스트레이션은 이 모든 것을 관리합니다.
[13:15]
에이전트에 있어서 프롬프팅도 정말 중요하다는 점을
[13:18]
강조하고 싶습니다.
[13:21]
특히 단일 에이전트가 아닌
[13:23]
멀티 에이전트 시스템을 구축할 때는
[13:24]
에이전트들이 서로 상호작용하는
[13:26]
에이전트 네트워크를 실제로 구성하게 됩니다.
[13:28]
이때 프롬프트는 매우 정확해야 하고
[13:30]
일관된 결과를 생성해야 합니다.
[13:31]
그렇다면 실제로 이런 AI 에이전트를
[13:33]
어떻게 구축할까요? 어떤 기술을 사용할까요?
[13:35]
현재 노코드와 로우코드 도구로
[13:37]
사용할 수 있는 것들이 꽤 많습니다.
[13:38]
개인적으로 일반적인 사용 사례에는
[13:40]
n8n이 최고라고 생각하고,
[13:41]
엔터프라이즈 사용 사례에는 Gumloop이 훌륭합니다.
[13:43]
코딩을 할 줄 안다면
[13:46]
OpenAI의 에이전트 SDK를 확인해보길 추천합니다.
[13:48]
이 모든 구성 요소가 내장되어 있습니다.
[13:50]
무료 옵션을 원한다면
[13:51]
Google의 ADK 에이전트 개발 키트가 있습니다.
[13:53]
코딩 에이전트 전용인 Claude Code SDK도 있습니다.
[13:56]
솔직히 이런 다양한 기술들과
[13:59]
구현 방법들은
[14:01]
시간이 지남에 따라 계속 변화할 것이고,
[14:03]
앞으로 몇 달 안에
[14:05]
더 많은 에이전트 도구들이 나올 것이라고 확신합니다.
[14:07]
앞으로 계속 변화할 것입니다.
[14:08]
몇 달 안에
[14:10]
더 많은 에이전트 빌더들이
[14:11]
등장할 것이라고 확신합니다.
[14:13]
그래서 정말 추천하는 것은
[14:14]
AI 에이전트의 구성 요소에 대한
[14:15]
이런 기본 지식에
[14:17]
실제로 집중하는 것입니다. 다양한 프로토콜과
[14:18]
다양한 시스템들이 무엇인지 말이죠.
[14:20]
이런 근본적인 기초 지식은
[14:21]
그렇게 빨리 변하지 않을 것이고
[14:23]
새로 나오는 어떤 도구나
[14:24]
기술에도 적용할 수 있을 것입니다.
[14:26]
만약 AI 에이전트에 대해
[14:27]
좀 더 깊이 알고 싶다면, 여기에
[14:29]
제가 AI 에이전트 기초에 대해 만든 영상이 있습니다.
[14:31]
그리고 AI 에이전트 구축을
[14:33]
시작하고 싶다면
[14:34]
'AI 에이전트 구축'이라는
[14:36]
다른 영상도 있으니
[14:38]
여기에서 확인해보세요.
[14:40]
AI 에이전트에 대해 훨씬 더 자세히
[14:42]
다루고 있습니다. 이것들이
[14:44]
하나의 AI 에이전트를 구성하는
[14:45]
요소들입니다. 하지만 종종
[14:47]
멀티 에이전트 시스템을
[14:49]
구축하고 싶을 수도 있습니다.
[14:50]
하나의 에이전트만 있는 것이 아니라
[14:52]
함께 작업하는
[14:53]
에이전트 시스템을 가질 수 있죠.
[14:54]
그 이유는 회사에서
[14:55]
한 사람이 모든 일을
[14:58]
하려고 하는 것과 같습니다.
[14:59]
아마 좋지 않을 것입니다.
[15:00]
그 사람은 동시에 모든 것을
[15:01]
관리하려고 하면서 매우 혼란스러워할 것입니다.
[15:03]
그래서 회사를 구성하는
[15:06]
특정 역할을 가진 사람들이
[15:07]
있는 것이 훨씬 낫습니다.
[15:08]
에이전트도 매우 비슷합니다.
[15:10]
하나의 에이전트가 모든 것을
[15:11]
하려고 한다면 혼란스러워질 것입니다.
[15:12]
많은 일들이 일어나게 됩니다.
[15:14]
그래서 종종 특정 역할을 가진
[15:16]
다양한 서브 에이전트로
[15:17]
나누어서 함께 작업하여
[15:19]
원하는 결과를 얻는 것이 좋습니다.
[15:21]
멀티 에이전트 시스템에 대해 더 알고 싶다면
[15:22]
Anthropic에서 정말 좋은
[15:23]
아티클이 있으니
[15:25]
설명란에 링크를 걸어두겠습니다.
[15:27]
그런데 제가 언급하는
[15:28]
모든 리소스들을 설명란에
[15:30]
링크해두겠습니다.
[15:31]
요즘 많은 사람들이
[15:33]
이야기하고 있는 MCP에 대해서도
[15:34]
들어보셨을 것입니다.
[15:37]
이것도 Anthropic에서 개발한 것으로
[15:38]
기본적으로 에이전트가 도구와 지식에
[15:41]
접근할 수 있는
[15:42]
표준화된 방법입니다.
[15:45]
범용 USB 플러그처럼
[15:46]
생각하시면 됩니다.
[15:48]
MCP 이전에는 실제로
[15:49]
에이전트에게 특정 도구에
[15:51]
접근권을 주는 것이
[15:52]
꽤 어려웠습니다.
[15:54]
왜냐하면 모든 다른 웹사이트들과
[15:57]
모든 다른 API들, 데이터베이스들도
[15:59]
다른 방식으로 작동하기 때문입니다.
[16:00]
모두 조금씩 다르게
[16:02]
구성되어 있어서
[16:04]
에이전트와 연결하는 것이
[16:06]
정말 골치 아픈 일이었습니다.
[16:08]
하지만 MCP가 있으면
[16:10]
범용 USB 플러그가 있기 때문에 이제
[16:10]
이제 AI를 활용한 애플리케이션 개발로 넘어가 보겠습니다.
[16:12]
즉, AI 지원 코딩, 바이브 코딩이라고도 불리는 방법입니다.
[16:15]
바이브 코딩이라고 하죠.
[16:19]
2025년 2월, OpenAI의 공동 창립자인
[16:21]
안드레 카파시가 바이럴 트윗을 남겼습니다.
[16:23]
그는 이렇게 말했어요. "바이브 코딩이라고 부르는
[16:25]
새로운 종류의 코딩이 있는데,
[16:27]
완전히 분위기에 몸을 맡기고,
[16:29]
지수적 성장을 받아들이며,
[16:31]
코드가 존재한다는 사실조차 잊어버리는 것입니다.
[16:33]
이것이 가능한 이유는 LLM이 너무 좋아졌기 때문입니다.
[16:35]
단순히 AI에게 무엇을 만들고 싶은지 말하면
[16:37]
구현을 대신 처리해 줍니다.
[16:39]
그리고 제 생각에는 이것이
[16:40]
AI를 제품과 워크플로에 통합하는 새로운 방식입니다.
[16:43]
바이브 코딩을 사용해서 무언가를 만드는 것이죠.
[16:45]
예를 들어, LLM에게 간단히
[16:47]
"Daily Vibes라는 간단한 React 웹앱을 만들어 주세요.
[16:49]
사용자는 이모지 목록에서 기분을 선택할 수 있고,
[16:51]
선택적으로 짧은 메모를 작성하고
[16:54]
아래에 제출할 수 있습니다.
[16:55]
날짜와 메모가 포함된 과거 기분 항목들의 목록을 보여주세요."
[16:57]
라고 말하면 됩니다.
[16:59]
엔터를 누르기만 하면 LLM이
[17:01]
코드를 작성해 주고,
[17:03]
이 앱을 생성해 줍니다.
[17:05]
짜잔, 완성입니다. 하지만 여기서 끝이 아닙니다.
[17:08]
여전히 AI와 함께 작업하여
[17:09]
올바르게 바이브 코딩을 하고
[17:11]
실제로 사용 가능하고 확장 가능한
[17:14]
제품을 만들기 위한
[17:15]
기술, 원칙, 그리고 모범 사례들이 있습니다.
[17:17]
이제 바이브 코딩을 위한 5단계 프레임워크를
[17:19]
"작은 페럿들이 위험한 코드를 운반한다"
[17:22]
라는 기억술로 소개해 드리겠습니다.
[17:24]
위험한 코드라고 하는 이유는
[17:26]
제대로 하지 않으면
[17:27]
여기 이 사람처럼 될 수 있기 때문입니다.
[17:29]
이 사람은 바이브 코딩으로 앱을 만들었다가
[17:31]
버전 컨트롤이라는 것을 이해하지 못해서
[17:33]
모든 것을 잃어버렸습니다.
[17:35]
"작은 페럿들이 위험한 코드를 운반한다"는
[17:37]
사고(Thinking), 프레임워크(Frameworks),
[17:39]
체크포인트(Checkpoints), 디버깅(Debugging),
[17:42]
그리고 컨텍스트(Context)를 의미합니다.
[17:44]
사고는 말 그대로, 실제로 무엇을 만들고 싶은지
[17:45]
정말 열심히 생각하는 것입니다.
[17:47]
정확히 무엇을 만들고 싶은지도 모르면서
[17:48]
어떻게 AI가 그것을 할 수 있기를 기대할 수 있겠습니까?
[17:50]
제 생각에 가장 좋은 방법은
[17:52]
제품 요구사항 문서나
[17:53]
PRD라고 불리는 것을 만드는 것입니다.
[17:55]
여기서 타겟 고객층을 정의하고,
[17:57]
핵심 기능들과 제품을 만들 때
[17:59]
사용할 도구들을 정의합니다.
[18:00]
설명란에 PRD 예시를 링크해 두겠지만,
[18:02]
기본적으로 만들려는 것이 무엇인지
[18:04]
상당한 시간을 들여서
[18:05]
충분히 생각해 보시기 바랍니다.
[18:07]
다음은 프레임워크입니다.
[18:10]
무엇을 만들려고 하든,
[18:11]
아마도 이전에 매우 비슷한 것들이
[18:13]
만들어졌을 가능성이 큽니다.
[18:14]
그래서 모든 것을 재발명하려고 하거나
[18:16]
AI에게 모든 것을 알아내라고 하는 대신,
[18:18]
AI가 특정 제품을 만들기 위한
[18:19]
올바른 도구들을 향하도록
[18:20]
React나 Tailwind를 사용하라고 하거나,
[18:22]
3D 인터랙티브 경험을 만든다면
[18:24]
Three.js를 사용하라고 알려주는 것이 훨씬 좋습니다.
[18:27]
하지만 티나, 여러분이 물어볼 수도 있겠죠.
[18:29]
뭘 사용하라고 AI에게 말해야 하는지도 모르는데
[18:31]
어떻게 알 수 있을까요?
[18:33]
어떤 걸 사용해야 할지 모르겠다고요? 좋은 질문이네요.
[18:34]
AI가 그것도 도와줄 수 있어요.
[18:36]
PRD를 작성할 때 AI에게 직접 물어보세요.
[18:38]
저는 이런 걸 만들려고 하는데요,
[18:39]
예를 들어 3D 애니메이션이 많이 들어가고,
[18:40]
웹 앱으로 만들고 싶어요.
[18:43]
이런 걸 만들 때 일반적으로 사용하는 프레임워크는 뭐가 있나요?
[18:45]
이렇게 질문하면서 동시에
[18:48]
특정 기능을 구현할 때 일반적으로 사용하는
[18:49]
프레임워크가 무엇인지 스스로 배우게 됩니다.
[18:50]
시간이 지나면서 필요한 것들을
[18:52]
훨씬 더 잘 파악하게 될 거예요.
[18:53]
바이브 코딩 시대에는
[18:55]
모든 걸 직접 코딩할 필요는 없지만,
[18:57]
다양한 애플리케이션을 만들 때 사용되는
[18:59]
일반적인 프레임워크를 이해하는 건
[19:00]
여전히 매우 도움이 됩니다.
[19:02]
또한 프로젝트의 다른 부분들과
[19:04]
다른 파일들이 서로 어떻게
[19:05]
상호작용하는지도 알아야 합니다.
[19:07]
이는 더 복잡한 기능들을
[19:08]
제품에 구축할 때 정말 큰 도움이 될 거예요.
[19:10]
프레임워크의 세 번째 단계는
[19:12]
체크포인트입니다.
[19:13]
Git이나 GitHub 같은 버전 관리를
[19:15]
항상 사용하세요. 그렇지 않으면
[19:17]
문제가 생기고 진행 상황을 잃게 되어
[19:19]
매우 슬픈 상황에 처할 거예요.
[19:21]
바이브 코딩으로 전체 애플리케이션을 만든 후
[19:22]
버전 관리를 이해하지 못해서
[19:24]
모든 걸 잃어버린 이 분처럼 말이죠.
[19:26]
네 번째 단계는 디버깅입니다.
[19:27]
아마 새로운 걸 만드는 것보다
[19:29]
디버깅하고 코드를 고치는 데
[19:31]
더 많은 시간을 보내게 될 거예요.
[19:32]
그게 현실입니다.
[19:34]
체계적이고 인내심을 갖고
[19:37]
AI가 어디를 고쳐야 하는지 안내해 주세요.
[19:39]
디버깅할 때 파일 구조와
[19:41]
무슨 일이 일어나고 있는지 이해한다면
[19:43]
코드베이스에서 AI가 어디를
[19:45]
디버깅해야 하는지에 대한
[19:46]
구체적인 지시를 제공하는 데
[19:48]
훨씬 더 나을 거예요.
[19:50]
오류를 마주했을 때 시작할 첫 번째 장소는
[19:52]
오류 메시지를 AI에 복사 붙여넣기하고
[19:53]
고쳐달라고 말하는 것입니다.
[19:55]
시각적으로 고쳐야 할 것이 있다면
[19:57]
AI에게 스크린샷도 제공하세요.
[19:59]
AI에게 더 많은 세부사항과
[20:00]
더 많은 맥락을 제공할수록
[20:02]
문제를 해결하는 방법을
[20:03]
더 잘 파악할 수 있을 거예요.
[20:05]
맥락에 대해 말하자면,
[20:07]
프레임워크의 마지막 부분은
[20:09]
맥락입니다. 의심스러울 때는
[20:11]
더 많은 맥락을 추가하세요.
[20:13]
일반적으로 말해서, 구축하든
[20:14]
디버깅하든 무엇을 하든
[20:16]
AI에게 더 많은 맥락을 제공할수록
[20:17]
더 나은 결과를 얻을 수 있어요.
[20:19]
여기에는 AI에게 목업, 예시,
[20:20]
스크린샷을 제공하는 것도 포함됩니다.
[20:22]
이 5단계 프레임워크를 기억하는
[20:24]
니모닉은 'tiny ferrets carry dangerous code'
[20:26]
thinking, frameworks, checkpoints,
[20:28]
debugging, context입니다.
[20:30]
바이브 코딩 과정에서 이 프레임워크의
[20:31]
원칙들이 어떻게 잘 작동하는지
[20:33]
생각해보는 유용한 방법은
[20:35]
오직 두 가지 모드만 있다는 걸
[20:36]
깨닫는 것입니다.
[20:38]
기능을 구현하거나
[20:39]
또는 코드를 디버깅하는 상황입니다. 기능을 구현할 때는
[20:40]
더 많은 컨텍스트를 제공하는 방법을 생각해야 합니다.
[20:42]
프레임워크를 언급하고
[20:43]
점진적인 변경을 하는 것이죠. 항상
[20:45]
새로운 것을 구축할 때는 한 번에 하나씩
[20:47]
접근하려고 해야 합니다. 제품을 만들 때는 한 번에 하나의 기능씩
[20:48]
구현하세요. 디버깅 모드에 있을 때는
[20:50]
프로젝트의 기본 구조와
[20:52]
AI가 어디를 향해 수정해야 하는지
[20:53]
생각해야 합니다.
[20:55]
그리고 에러 메시지나
[20:56]
스크린샷 같은 더 많은 컨텍스트를 제공해야 합니다.
[20:58]
이제 좋은 바이브 코딩을 만드는
[20:59]
기본 원칙들을 알게 되었습니다.
[21:01]
그렇다면 실제로 사용하는 도구들은 무엇일까요?
[21:02]
개발 도구들은 전체 스펙트럽이 있습니다.
[21:04]
한쪽 끝에는 완전한 초보자들,
[21:06]
엔지니어링 배경이나 코딩 배경이 전혀 없는 사람들을 위한 것들이 있습니다.
[21:07]
인기 있는 초보자 친화적인 바이브 코딩 도구로는
[21:09]
Lovable, V0, Bolt가 있습니다.
[21:11]
조금 더 중급자용으로는
[21:13]
Replit 같은 것이 있습니다. 이것도 여전히
[21:14]
초보자에게 친화적이지만
[21:15]
코드베이스를 보여주기도 해서
[21:17]
실제로 조금 더 깊이 들어가서 프로젝트의 구조를 이해할 수 있습니다.
[21:20]
조금 더 고급으로는
[21:21]
Firebase Studio 같은 것이 있습니다.
[21:23]
Firebase Studio는 두 가지 모드가 있습니다.
[21:24]
매우 사용자 친화적인 프롬프팅 모드와
[21:26]
완전한 IDE(통합 개발 환경) 경험을 제공합니다.
[21:27]
IDE는 코드 작성과 작업을 위해
[21:28]
특별히 설계된 인터페이스입니다.
[21:30]
이 경우에는 매우 인기 있는 IDE인
[21:31]
VS Code 위에 구축되었습니다.
[21:33]
Firebase Studio에서는 노코드 프롬프팅 보기와
[21:35]
코딩 모드를 번갈아가며 사용할 수 있습니다.
[21:36]
Firebase Studio는 무료라는 장점도 있습니다.
[21:38]
이제 더 고급 바이브 코딩 도구들로 넘어가겠습니다.
[21:40]
이것들은 Windsurf나 Cursor 같은
[21:42]
AI 코드 에디터와 코딩 에이전트들입니다.
[21:44]
앞서 얘기한 모든 것들은 웹 기반이었기 때문에
[21:45]
설정이 정말 쉽습니다. 환경이 격리되어 있고
[21:47]
많은 것들을 알아서 처리해줍니다.
[21:48]
하지만 정말로 프로덕션에 적합한 확장 가능한
[21:50]
코드를 만들고 싶다면
[21:52]
일반적으로 Windsurf나 Cursor 같은 것을 사용하기 시작해야 합니다.
[21:54]
개발은 여러분의 로컬 머신에서 이루어지므로
[21:56]
설정이 조금 더 복잡하지만
[21:58]
전체 개발 도구 세트와
[22:00]
Windsurf와 Cursor의 다양한 기능들에 접근할 수 있습니다.
[22:01]
바로 코딩 환경인 IDE를 직접 사용할 수 있습니다.
[22:03]
스펙트럼의 가장 고급 쪽에는
[22:04]
Cloud Code 같은 명령줄 도구들이 있습니다.
[22:06]
이런 도구들은 컴퓨터의 루트에 있는
[22:07]
터미널에 직접 존재합니다.
[22:09]
이런 도구들을 사용하려면 터미널이나
[22:11]
명령줄에서 작업하는 것에 익숙해야 합니다.
[22:12]
하지만 훨씬 더 많은 기능을 제공하고
[22:14]
어떤 타입의 IDE와도 함께 사용할 수 있습니다.
[22:15]
[22:40]
본인이 선택하는 것입니다. 클라우드
[22:42]
코드는 복잡한 코드 베이스로
[22:43]
작업할 때 진정으로 빛을 발하기 시작합니다. 하지만
[22:45]
여기서 기대하는 것은 정말로
[22:46]
코딩하는 방법을 알고 컴퓨터를
[22:48]
다룰 줄 알며 소프트웨어에 대한
[22:50]
깊은 이해가 있어야 한다는 것입니다. 좋습니다,
[22:51]
이것이 바이브 코딩에 대한 속성 강좌였습니다.
[22:54]
이 내용을 더 깊이 파고들고 싶다면
[22:56]
바이브 코딩 기초라는 전체 영상을 만들었는데
[22:57]
거기서 훨씬 더 자세히 다룹니다.
[22:59]
또한 Firebase Studio에 대한 영상도
[23:01]
따로 만들었는데 여기 링크해놓겠고
[23:03]
클라우드 모델과 클라우드 코드에 대해
[23:05]
다룬 또 다른 영상도
[23:06]
여기 링크해놓겠습니다. 이제
[23:08]
화면에 간단한 평가를 올려놓을 테니
[23:10]
바이브 코딩에 대한 정보를
[23:12]
제대로 기억하고 있는지 확인해보세요. 마지막 섹션입니다.
[23:14]
미래에는 어떤 일들이
[23:16]
기다리고 있을까요?
[23:21]
AI 세계에서는 연도나
[23:23]
심지어 개월 단위로 측정하지 않습니다.
[23:25]
주 단위로 측정합니다. 그리고
[23:28]
일정은 점점 더
[23:29]
압축되고 있습니다. 제가 코드 위드 클라우드
[23:31]
컨퍼런스에 있을 때 Anthropic의 CEO인
[23:32]
다리오가 정말 좋은
[23:34]
비유를 했습니다. 기본적으로
[23:36]
시간과 공간을 통과하는 로켓에
[23:38]
묶여있는 것과 같고 시간과 공간이
[23:40]
왜곡되어 모든 것이
[23:41]
점점 더 빠르게
[23:43]
가속화되고 있다고 말했습니다. 특히 이런 상황에서
[23:45]
모든 AI 뉴스와
[23:46]
나오는 모든 것들, 새로운 모델들,
[23:47]
새로운 도구들, 새로운 기술들을
[23:49]
따라잡으려고만 한다면
[23:51]
모든 것을 따라잡을 수 없고
[23:52]
아마 그 과정에서 매우
[23:54]
스트레스받을 것입니다. 그래서
[23:55]
제 조언은 나오는 모든 새로운 것들에
[23:57]
너무 많은 관심을 기울이지 말고
[23:58]
대신 일어나고 있는
[24:00]
근본적인 트렌드에 집중하라는 것입니다.
[24:02]
그리고 세 가지 주요한
[24:03]
근본적인 트렌드가 있다고 생각합니다. 첫 번째는
[24:05]
워크플로우와 기존 제품으로의
[24:07]
통합입니다. 2025년은 확실히 사람들이 AI를
[24:10]
실제로 기존
[24:11]
워크플로우에 통합하는
[24:13]
해가 될 것입니다. 대표적인 예가
[24:14]
구글 자체입니다. 구글 IO 컨퍼런스에
[24:16]
참석했는데 그들은
[24:18]
AI를 전반적으로 통합하여 구글 제품을
[24:20]
더 좋게 만드는 데 많은 노력을 기울이고 있습니다.
[24:22]
그리고 이것이 모든 회사의
[24:23]
모델이 되어야 한다고 생각합니다. AI를 통합하여
[24:25]
프로세스를 어떻게 개선할지
[24:27]
생각해보세요. 더 나은 사용자 경험과
[24:29]
비용 절감을 위해서 말입니다.
[24:31]
이를 구현할 때는
[24:32]
AI 보조 코딩이나 바이브 코딩을 배우면
[24:34]
엄청난 생산성 향상이 있습니다.
[24:36]
이런 전체 스펙트럼의 코딩 도구들로
[24:37]
무언가를 만들고 싶지만
[24:39]
코딩 방법을 모르는 사람들의
[24:40]
진입 장벽이 극적으로 낮아집니다. 하지만
[24:42]
개발자들의 생산성을
[24:44]
높이는 방향으로도
[24:45]
큰 추진이 있습니다.
[24:46]
클라우드 코드 같은 명령줄 도구를 경험한 후
[24:49]
이런 도구들의 엄청난 이점을
[24:50]
절대적으로 확인할 수 있습니다. 그리고
[24:52]
명령줄 도구를 개발하고
[24:53]
개선하는 데 엄청난 집중이
[24:55]
있을 것이라고 생각합니다. 따라서
[24:57]
기술적인 사람이거나 기술적인
[24:58]
것들을 배우려는 의지가 있는 사람이라면
[25:00]
클라우드 코드 같은 명령줄 도구를
[25:01]
배우는 것이 핵심이 될 것입니다.
[25:04]
그리고 마지막으로 AI 에이전트에 대한 집중은
[25:05]
전혀 사라지지 않고 있습니다. 사실
[25:07]
AI 에이전트 구축에 대한 관심이
[25:09]
점점 더 높아지고 있는데 AI 에이전트가
[25:11]
기존 제품을 개선하고
[25:13]
새로운 제품을 구축하는 데도
[25:15]
엄청난 잠재력을 가지고 있기 때문입니다.
[25:17]
AI 에이전트는 경험을 개인화하고 24시간 연중무휴로
[25:20]
훨씬 낮은 비용으로 제공할 수 있게 해줍니다.
[25:22]
웨이시가 말했듯이 모든 SaaS 유니콘
[25:24]
회사에 대해 동등한 AI 에이전트
[25:26]
회사가 있을 것입니다. 앞으로 몇 달 안에
[25:27]
에이전트를 더욱 쉽게
[25:28]
구현하고 구축할 수 있는
[25:30]
도구들이 더 많이 나올 것이라고
[25:31]
확신합니다. 따라서 무언가를 만들고
[25:32]
비즈니스를 구축하고 스타트업을
[25:33]
하려고 한다면
[25:35]
AI 에이전트를 살펴보라고 권하고 싶습니다. 좋아요,
[25:37]
오늘 여러분을 위한 내용은 여기까지입니다. 여기
[25:39]
마지막 간단한 평가가 있습니다.
[25:40]
댓글에 이 질문들에 답해주세요.
[25:42]
이 영상을 끝까지 시청해주셔서
[25:44]
정말 감사합니다. 여러분이
[25:45]
AI를 사용해서 하게 될 모든
[25:47]
일들과 만들어낼 것들을 보게 되어 정말 기대됩니다.
[25:49]
이것이 도움이 되고 여러분의 AI
[25:50]
여정에 행운이 있기를 바랍니다.
[25:52]
다음 비디오나 라이브 스트림에서 뵙겠습니다.