[00:00]
이 영상에서는 SEO 캠페인을 완전히
[00:01]
자동화하는 방법을 보여드리겠습니다.
[00:03]
이를 통해 이런 블로그 글을
[00:04]
100% 자동화로 작성할 수 있게 되죠.
[00:07]
여러분이 직접 할 필요가 전혀 없습니다.
[00:10]
앞으로 몇 분 동안
[00:11]
SEO에 대해 알아야 할 모든 것을
[00:12]
알려드리고, 더 나아가
[00:14]
제가 직접 사용하는
[00:16]
SEO 블로그 자동화 템플릿도 공유해드리겠습니다.
[00:18]
여러분도 아시다시피 저희는 정보를 숨기지 않습니다.
[00:20]
모든 템플릿은
[00:22]
아래 설명란에
[00:23]
있을 거예요.
[00:25]
다운로드해서 가져오기만 하면 됩니다.
[00:26]
약간만 수정해서 SEO 캠페인을 실행할 수 있죠.
[00:28]
아마 30분도 안 걸릴 겁니다.
[00:31]
자, 이제 시간 낭비하지 말고
[00:32]
바로 시작해보겠습니다.
[00:34]
SEO의 궁극적인 목표는 특정 키워드에서
[00:36]
상위 랭킹을 차지하는 것입니다.
[00:38]
예를 들어 이발소를 운영한다고 할 때
[00:39]
누군가 도시의 이발소를 검색하면
[00:41]
검색 결과 1위로 나오는 것이 목표입니다.
[00:42]
사람들은 보통 첫 번째 결과를 선택해서
[00:44]
지도에 입력하고
[00:46]
바로 그 이발소를 방문하니까요.
[00:47]
지도에서 확인하고
[00:49]
이발소를 방문해서
[00:50]
머리를 자르게 되죠. 새로운 고객이 생기는 거예요.
[00:52]
SEO의 핵심은 원하는 키워드를 찾아내고
[00:55]
그 키워드에서 상위 랭킹을 차지하는 것
[00:57]
즉, 구글에서 상위에 노출되거나
[00:58]
검색 결과 1위로 나오는 것이 목표입니다.
[01:00]
누군가가 그 검색어를
[01:02]
찾을 때요. 예를 들어
[01:03]
이해를 돕기 위해
[01:05]
선글라스를 온라인으로 검색하면
[01:06]
첫 번째로 나오는 결과는
[01:08]
광고 표시가 있는 스폰서 결과입니다.
[01:10]
1위에 오르기 위해 비용을 지불했죠.
[01:11]
두 번째도 마찬가지로 광고입니다.
[01:13]
하지만 세 번째 선글라스 헛은
[01:15]
3위로 랭크되어 있지만
[01:17]
구글에 비용을
[01:18]
전혀 지불하지 않았습니다.
[01:20]
자연스럽게 검색 결과
[01:22]
3위에 올랐다는 것이죠.
[01:24]
비용을 들이지 않고도
[01:26]
웹사이트로 트래픽이
[01:27]
유입되고 있고, 이는 곧
[01:29]
실제 고객으로 전환될 가능성이 높습니다.
[01:30]
그것도 한 푼도 들이지 않고 말이죠.
[01:33]
네, 이것이 바로 SEO의 힘입니다.
[01:35]
SEO만 제대로 되어 있다면
[01:37]
전체 마케팅 퍼널이 필요 없습니다.
[01:38]
SEO만 제대로 해도
[01:40]
더 이상 고객 확보에
[01:41]
어려움을 겪지 않을 거예요.
[01:43]
게다가 가장 좋은 점은
[01:44]
모두 무료라는 것입니다.
[01:46]
자, 이론으로 돌아가서
[01:48]
앞서 말씀드렸듯이
[01:49]
선글라스와 같은 여러분의 분야와 관련된
[01:51]
키워드를 찾아내고
[01:53]
그 키워드에서 1위를 차지하는 것이 목표입니다.
[01:55]
누군가가 그 키워드나
[01:56]
관련 키워드를 검색했을 때
[01:58]
여러분의 제품이나 서비스가
[02:00]
1위로 나오게 하는 거죠.
[02:01]
이제 이해하셨다면
[02:03]
실제로 이것을 어떻게
[02:04]
달성할 수 있는지 알아보겠습니다.
[02:06]
사실 답은 매우 간단합니다.
[02:08]
블로그 글을 작성하기만 하면 됩니다.
[02:11]
블로그 포스트가 무엇인지는 아실 텐데요.
[02:13]
모르시는 분들을 위해 설명드리자면
[02:14]
예를 들어 온라인에서
[02:16]
'AI 에이전트가 무엇인가'를 검색하면
[02:17]
몇 가지 검색 결과가 나타나는데
[02:19]
AI 에이전트에 대해 설명하는 글들이 있습니다
[02:21]
Salesforce, IBM, Amazon 같은 기업들의 글이죠
[02:24]
그런데 IBM, Amazon, Salesforce가 정말로
[02:27]
AI 에이전트를 설명하는 것이 목적일까요?
[02:29]
그럴 수도 있지만, 주된 이유는 아닙니다
[02:31]
이런 블로그를 작성하는 진짜 이유는
[02:32]
블로그 내부에
[02:34]
특정 키워드들을 포함시켜
[02:36]
해당 키워드로 검색했을 때
[02:38]
상위에 노출되기 위해서입니다
[02:40]
즉, 목표는 키워드를 찾고
[02:42]
관련 블로그를 작성하는 것이며
[02:44]
시간이 지나면서 구글이
[02:46]
해당 키워드에 대해 더 높은 순위를 부여하고
[02:47]
이는 SEO를 향상시키며
[02:49]
자연스럽게 키워드 순위가 올라가게 됩니다
[02:51]
이를 통해 웹사이트 트래픽이 증가하고
[02:53]
결과적으로 더 많은 고객을 확보할 수 있죠
[02:55]
방금 키워드라는 말을 열두 번은 한 것 같네요
[02:56]
하지만 진짜로 키워드는
[02:58]
SEO에서 매우 중요한 요소입니다
[03:00]
하지만 솔직히 말씀드리면
[03:02]
단순히 키워드를 찾아서
[03:04]
블로그를 여러 개 작성하는 것만으로는
[03:06]
충분하지 않습니다
[03:08]
특정한 방식으로 블로그를 작성하고
[03:09]
블로그들을 서로 연결해야
[03:11]
구글이 실제로
[03:13]
블로그 게시물에 대해 보상을 합니다
[03:15]
지금 여러분이 아무 생각 없이
[03:16]
전략도 없이
[03:17]
블로그를 무작정 작성하고 있다면
[03:19]
효과가 없을 것이라고 장담합니다
[03:21]
자, 이제 화이트보드로 돌아가보죠
[03:22]
구글의 문서를 보시면
[03:24]
블로그 포스팅으로 SEO를 높이기 위한
[03:26]
전략이 무엇인지 알 수 있는데
[03:27]
제가 여기 그린 다이어그램이
[03:29]
바로 그것입니다
[03:31]
사실 그렇게 어렵지 않아요
[03:34]
자세히 설명해드리겠습니다
[03:36]
다이어그램을 설명하기 전에
[03:39]
C1, C2, C3, C4가 무엇인지
[03:40]
빠르게 설명해드리겠습니다
[03:42]
여기서 C는 클러스터를 의미합니다
[03:46]
클러스터는 키워드들의 집합인데
[03:48]
예를 들어 키워드1, 키워드2, 키워드3처럼
[03:50]
서로 연관되어 있고 비슷한 키워드들을
[03:53]
하나의 블로그 포스트에
[03:54]
함께 넣을 수 있는 것들입니다
[03:56]
즉, 클러스터는 같은 블로그 포스트에
[03:58]
넣을 수 있는 연관된 키워드 그룹이에요
[04:00]
구글이 원하는 것은
[04:02]
순위를 높이고 싶은 키워드들이 포함된
[04:04]
많은 블로그 포스트를 작성하고
[04:06]
이 블로그들이
[04:07]
키워드를 포함하면서
[04:09]
서로 연결되어 있어야 합니다
[04:11]
예를 들어 클러스터1에 대한
[04:14]
블로그를 읽을 때
[04:16]
클러스터2와 연관된 내용이 있다면
[04:19]
클러스터1 내용에 하이퍼링크를 걸어서
[04:21]
클러스터1의 글에서
[04:23]
그 링크를 클릭하면
[04:25]
클러스터2 블로그로 이동하게 하고
[04:27]
클러스터2 블로그에서는
[04:29]
다시 클러스터3으로 연결되고
[04:30]
클러스터4, 5를 거쳐 다시 클러스터1로 연결됩니다
[04:35]
다시 모든 클러스터로 돌아가서
[04:37]
기본적으로 여러분이 많은 블로그 포스트를
[04:38]
작성하고 이 블로그 포스트들을
[04:40]
내부에서 하이퍼링크로
[04:42]
연결하기를 원합니다. 이해를 돕기 위해
[04:44]
앞서 보여드린 아마존 블로그 포스트로
[04:46]
다시 한번 살펴보면
[04:48]
일부 단어들이
[04:50]
하이퍼링크로 되어있는 것을 볼 수 있습니다. '챗봇'을
[04:52]
클릭하면 아마존이 작성한
[04:54]
다른 블로그 포스트로 연결됩니다. 이렇게
[04:56]
블로그 포스트들을 내부적으로 연결했고
[04:58]
'봇' 내부로 들어가면
[05:00]
다른 것들로도 연결되어 있을 겁니다
[05:01]
아마존의 다른 것에 대해 배우기나
[05:03]
Lex 챗봇에 대해 읽어보기 같은 것들이죠
[05:06]
이것을 클릭하면 아마도 또 다른
[05:08]
아마존 포스트가 나올 것입니다. 이런 식으로
[05:10]
정말 간단합니다. 그들이 원하는 것은
[05:12]
많은 블로그를 포스팅하고
[05:13]
최적화하고 싶은 키워드를
[05:15]
그 안에 포함시키고
[05:16]
이 블로그들을 서로 연결하는 것입니다
[05:18]
자, 이제 SEO 전략의 첫 번째
[05:20]
부분을 이해하셨을 겁니다. 블로그를 포스팅하고
[05:22]
서로 연결하는 것이죠. 이제 더 나은
[05:24]
가독성을 위해 구글이 원하는 것은
[05:27]
필러 포스트를 정의하는 것입니다
[05:29]
필러 포스트는 말하자면
[05:32]
아주 상위 수준의 포스트입니다.
[05:35]
왜 이게 클릭이 안 되지...
[05:37]
이 상위 수준의 포스트는 아래에 있는
[05:40]
모든 클러스터들과 연결됩니다
[05:42]
특정 주제에 대해 깊이 다루지는 않지만
[05:44]
이 포스트가 할 일은
[05:47]
이러한 작은 블로그 포스트들을 모두 다루고
[05:49]
내부에서 링크로 연결하는 것입니다
[05:51]
계층 구조로 생각해보면
[05:53]
여기 위에 필러 포스트가 있고
[05:56]
그 아래에 이런 작은
[05:58]
클러스터 포스트들이 있으며, 이들도
[06:00]
서로 연관되어 있습니다. 하지만 이
[06:02]
맨 위에 있는 필러 포스트는
[06:04]
매우 상위 수준이며 아래에 있는
[06:06]
모든 포스트들을 다룹니다. 정말 간단하죠
[06:08]
서로 연결된 여러 블로그가 있고
[06:10]
서로
[06:11]
연결되어 있으며, 상위 레벨의 필러 포스트가
[06:13]
아래에 있는 모든 블로그들과
[06:15]
연결되어 있습니다. 자, 이렇게
[06:17]
간단합니다. 이제 단 하나의
[06:19]
구성 요소만 더 이해하면
[06:20]
SEO 전략을 완벽하게 이해하실 수 있는데
[06:22]
그것은 바로 외부 링크입니다. 외부 링크는
[06:24]
내부 링크와 정확히 같습니다.
[06:25]
다른 웹 페이지로 연결되는 하이퍼링크된 단어들이지만
[06:28]
이 웹 페이지들은 자신의 웹사이트에 있는
[06:30]
블로그 포스트가 아니라
[06:32]
다른 사람의 웹사이트에 있는 블로그 포스트이고
[06:34]
이러한 다른 웹사이트들은 보통
[06:36]
매우 신뢰할 수 있는
[06:37]
출처입니다. 예를 들어
[06:39]
아마존이나 OpenAI, 또는
[06:42]
음... 구글 자체와 같은 곳들이죠. 이렇게
[06:44]
신뢰할 수 있는 출처에 링크를 걸면
[06:46]
SEO도 향상되고
[06:48]
블로그 포스트의 내용도
[06:49]
사실에 근거하고 도움이 되는 것으로 간주되며
[06:51]
그저 차고에서
[06:53]
생각해낸 것이 아니게 됩니다. 자, 이렇게
[06:55]
간단합니다. 여러분이 할 일은
[06:57]
많은 블로그를 가지고 그 안에
[06:59]
순위를 올리고 싶은 키워드를 넣고
[07:00]
그리고 나서
[07:02]
이러한 블로그들을 내부 링크로
[07:04]
서로 연결하고 싶을 것이고,
[07:05]
또한 이 블로그들이 신뢰할 수 있는
[07:08]
출처와 다른 도메인 및 웹사이트로
[07:10]
외부 링크를 가지게 하고, 마지막으로
[07:12]
여러 개의 필러 포스트를 만들어
[07:14]
이와 가장 관련성이 높은 클러스터들과
[07:16]
연결하면 됩니다.
[07:18]
바로 이게 전부입니다.
[07:19]
빠른 예시를 보여드리겠습니다.
[07:21]
완벽히 이해하실 수 있도록, 예를 들어
[07:23]
제가 자동차 딜러십의 SEO를 담당한다고 할 때
[07:26]
그들이 가질 수 있는
[07:28]
필러 포스트 중 하나는 '30대 이상 아빠들을 위한
[07:30]
궁극의 자동차 구매 가이드'가 될 것입니다.
[07:32]
그 아래의 클러스터들 중 하나는
[07:33]
적절한 가족용 차량 선택에 대한 것이고
[07:34]
두 번째 클러스터는
[07:36]
할부 금융과 딜에 관한 것으로,
[07:38]
30대 아빠들을 위한 새 차 구매라는
[07:40]
일반적인 주제의 두 가지 구성 요소입니다.
[07:42]
보시다시피 각 클러스터 아래에는
[07:44]
예를 들어
[07:45]
적절한 가족용 차량 선택이라는
[07:47]
클러스터에는 서로 연관된
[07:48]
다양한 키워드들이 있습니다.
[07:50]
아빠들을 위한 최고의 자동차, 30대 이상
[07:51]
아빠들을 위한 가족용 차, 주요 가족용 차량
[07:53]
특징, 아빠들을 위한 넓은 실내공간,
[07:55]
가족을 위한 첨단 기술 탑재 차량 등이 있고
[07:57]
이 클러스터 내의 키워드로
[07:58]
하나 또는 여러 개의
[08:00]
블로그 포스트를 작성하게 됩니다.
[08:02]
그리고 두 번째 클러스터인
[08:03]
할부 금융과 딜에 대해서도
[08:05]
동일하게 진행하며, 키워드를 보면
[08:06]
모두 할부 금융과 딜,
[08:08]
그리고 대출에 관련된 것입니다.
[08:10]
키워드들을 자세히 보면
[08:11]
이 키워드들이
[08:13]
자동차 딜러십의 목표 시장이나
[08:15]
타깃 고객이 검색할 만한
[08:17]
키워드라는 것을 알 수 있습니다.
[08:18]
예를 들어, 제가 30대 이상의 아빠이고
[08:21]
자동차를 찾고 있다면
[08:22]
'아빠들을 위한 최고의 자동차'나
[08:24]
'주요 가족용 차량 특징' 또는
[08:26]
'30대 이상 아빠들을 위한
[08:27]
가족용 차'를 검색할 것입니다.
[08:29]
그래서 누군가 구글에서 이걸 검색하면
[08:31]
우리가 1위로 노출되고,
[08:33]
그들이 읽고 우리를 발견하게 되며,
[08:35]
잠재적으로 다른 링크로
[08:36]
계속해서 이동하다가
[08:38]
결국에는
[08:39]
우리 서비스를 구매하게 되는 겁니다.
[08:41]
이제 SEO가 무엇인지,
[08:43]
그리고 SEO를 향상시키기 위해
[08:44]
어떤 전략을 구현해야 하는지 이해하셨을 겁니다.
[08:49]
이제 제 전략을 살펴보고
[08:51]
이 비디오에서 제공하는
[08:52]
템플릿을 다운로드하면
[08:54]
무엇을 얻을 수 있는지 알아보겠습니다.
[08:56]
제 전략은 매주 두 개의 블로그 포스트를
[08:58]
작성하는 것입니다. 그 중 하나는
[09:00]
클러스터 포스트로, 이전에 언급했던 것처럼
[09:03]
제 분야에서 1위를 목표로 하는
[09:04]
특정 키워드를 타겟팅하는
[09:06]
포스트입니다.
[09:08]
이는 매주 진행되어
[09:10]
매주 하나의
[09:12]
클러스터 포스트에
[09:13]
키워드가 포함될 것입니다.
[09:16]
매주 작성할 두 번째 포스트는
[09:18]
이것은 트렌드 포스트인데, 제가 AI 분야에 있기 때문에
[09:20]
우리 업계에서는 항상 새로운 발전이
[09:22]
일어나고 있습니다.
[09:23]
2-3일 또는 4일마다,
[09:25]
매주 새로운 일이 일어나죠.
[09:27]
누군가 새로운 것을 발표하고
[09:28]
새로운 모델을 출시하면
[09:30]
모든 사람들이 그것에 대해 이야기합니다.
[09:31]
그래서 제가 SEO를 발전시킬 수 있는
[09:33]
좋은 방법은 이러한 트렌디한 주제들에 대해 포스팅하는 것입니다.
[09:36]
말씀드린 대로 매주
[09:38]
하나의 포스트를 작성하는데, 이는
[09:40]
지난 3일 동안의 가장 핫한 주제나
[09:42]
AI 분야에서 가장 트렌디한 것을
[09:44]
다루고 있습니다. 즉, 매주 두 개의 포스트를 작성하는데
[09:47]
첫 번째 포스트는
[09:49]
타겟팅하고 싶은 키워드를
[09:50]
다루고, 두 번째 포스트는
[09:52]
매우 핫하고 트렌디한 주제를
[09:53]
다룹니다. 사람들이 많이 검색하고
[09:55]
1위로 랭크하고 싶은 주제죠.
[09:57]
아시다시피 저는 이 모든 것을
[09:58]
완전히 자동화했습니다. 매주 하나의 클러스터 포스트와
[10:00]
하나의 트렌드 포스트가
[10:02]
자동으로 발행되고 있어서
[10:04]
제가 직접 아무것도 할 필요가 없습니다.
[10:06]
모든 것이 자동화되어
[10:07]
백엔드에서 처리되고 있으며
[10:09]
오늘 여러분과 공유할 내용이
[10:10]
바로 이것입니다. 자, 이제 자세히 살펴보겠습니다
[10:12]
우리가 자동화할 첫 번째 유형의
[10:13]
포스트인 클러스터 포스트,
[10:15]
즉 실제로 랭크하고 싶은
[10:16]
키워드를 타겟팅하는 포스트입니다.
[10:17]
이것을 설정할 때는
[10:19]
세 가지 구성 요소가 있는데
[10:21]
첫 번째는 이러한 클러스터를 식별하거나
[10:22]
포스팅하고 싶은 키워드와
[10:24]
주제를 식별하는 것입니다.
[10:26]
두 번째 부분은 이러한 클러스터 포스트들을
[10:27]
내부 링크와 외부 링크로
[10:29]
서로 연결하는 것입니다.
[10:31]
그리고 세 번째이자
[10:33]
마지막 부분은 몇 달에 한 번씩
[10:35]
이러한 클러스터 포스트들을 모두 모아
[10:38]
필러 포스트를 게시하는 것입니다.
[10:40]
말씀드린 대로 첫 번째 단계는
[10:42]
클러스터를 파악하는 것입니다. 시작해보겠습니다.
[10:44]
목표는 이와 같은 엑셀 시트를
[10:46]
만드는 것입니다.
[10:48]
여기에는 많은 클러스터와
[10:49]
그에 따른 키워드들이
[10:50]
포함되어 있습니다.
[10:52]
컬럼들을 자세히 보면
[10:53]
클러스터, 의도, 키워드,
[10:56]
그리고 주요 키워드가 있습니다. 클러스터는
[10:58]
기본적으로 해당
[10:59]
특정 클러스터의 이름입니다. 의도는
[11:02]
SEO 랭킹에서 매우 중요한데
[11:04]
왜냐하면 제가 말씀드렸듯이 사용자가
[11:06]
특정 검색어를 입력했을 때
[11:08]
클릭하게 만들고 싶은 글이어야 하며
[11:10]
의도는 그들이 원하는 것이
[11:12]
무엇인지 정의합니다. 예를 들어
[11:14]
미용실에 대해 검색하지만
[11:16]
실제로는 헤어스타일링 방법을
[11:18]
배우고 싶어하는 교육적 의도라면
[11:20]
교육적 의도를 충족시키고
[11:22]
헤어스타일링 방법을 가르쳐야지
[11:23]
헤어 제품을 판매하려고 하면 안 됩니다.
[11:25]
그래서 사용자가 정확히 왜
[11:27]
검색하는지 아는 것이 매우 중요하고
[11:29]
그 검색 의도를 정확히 충족시켜
[11:31]
원하는 것을 제공해야 합니다.
[11:33]
말씀드렸듯이 이는 단순히
[11:34]
블로그에 키워드를 무작정 넣는 것이 아니라
[11:36]
사용자들이 왜 그 키워드를 검색하는지
[11:38]
이유를 파악하고
[11:40]
검색 의도에 맞는 블로그 포스트를 작성하여
[11:43]
사용자의 니즈를 충족시키는 것입니다
[11:45]
다음 열은 클러스터에 포함시킬
[11:48]
키워드들이고
[11:49]
그 다음에는 주요 키워드가 있습니다
[11:50]
주요 키워드가 왜 필요한지는
[11:52]
나중에 설명해 드리겠습니다
[11:53]
지금은 신경 쓰지 마세요
[11:55]
이 템플릿은 아래 설명란에서
[11:57]
다운로드 받으실 수 있습니다
[11:58]
처음부터 시작할 필요 없이
[12:00]
템플릿을 다운로드하면 됩니다
[12:01]
이제 제가 알려드릴 건
[12:02]
클러스터, 검색 의도, 키워드,
[12:04]
주요 키워드를 올바르게 채우는 방법입니다
[12:06]
적절한 타겟 키워드를 찾기 위해서는
[12:08]
키워드 리서치가 필요한데
[12:10]
키워드 리서치를 할 때
[12:12]
보통 사람들은 타겟팅할 키워드를 찾기 위해
[12:14]
SEMrush 같은 비싼 앱에 50달러, 60달러, 100달러, 200달러를 쓰는데
[12:17]
사실 그럴 필요가 전혀 없습니다
[12:19]
제대로 하고 싶다면
[12:21]
Google Ads를 사용하면 되고
[12:23]
빠르게 하고 싶다면
[12:24]
ChatGPT를 사용하면 됩니다
[12:26]
두 가지 방법 모두
[12:27]
자세히 알려드리겠습니다
[12:29]
먼저 Google Ads를 사용한
[12:32]
정석적인 방법을 살펴보겠습니다
[12:33]
Google Ads 계정이 없다면
[12:35]
만들기가 매우 간단합니다
[12:36]
Google에서
[12:38]
Google Ads를 검색하고
[12:39]
새 계정을 만드세요
[12:41]
완전 무료이고
[12:42]
바로 사용할 수 있습니다
[12:44]
Google Ads에 들어가서
[12:45]
왼쪽의 도구와 키워드 플래너를 클릭하면
[12:47]
제가 보여드리는 것과
[12:49]
같은 페이지가 나타납니다
[12:51]
이제 같은 페이지에서
[12:52]
무료로 키워드 리서치를 하는
[12:54]
올바른 방법을 살펴보겠습니다
[12:56]
먼저 이
[12:57]
'새 키워드 찾기'를 클릭하세요
[12:59]
이 페이지에서는
[13:01]
Google에 여러분의 제품이나 서비스,
[13:03]
비즈니스의 주요 포인트를
[13:05]
나타내는 키워드들을
[13:06]
입력해야 합니다
[13:08]
예를 들어, 저처럼 AI 에이전시를 운영한다면
[13:11]
'automation'을 검색할 수 있죠
[13:12]
우리가 자동화 서비스를 제공하니까요
[13:14]
'AI'도 검색하고
[13:16]
'AI agents'도 검색하고
[13:19]
'BPA'(비즈니스 프로세스 자동화)도 검색하고
[13:21]
'RPA'(로봇 프로세스 자동화)도 검색하고
[13:23]
아마도
[13:25]
'n8n'도 검색할 수 있겠죠
[13:26]
이런 키워드들이 제 비즈니스를
[13:29]
전반적으로 정의하는 키워드들입니다
[13:32]
이렇게 키워드를 입력한 다음
[13:33]
'결과 가져오기'를 클릭하면 됩니다
[13:36]
그러면 Google Ads가
[13:38]
입력한 키워드와
[13:39]
관련된 다양한 키워드들을 보여주고
[13:41]
여러분의 제품이나 서비스,
[13:43]
비즈니스와 관련된 키워드들과
[13:44]
통계 자료를 제공합니다
[13:46]
이 데이터를 바탕으로
[13:48]
타겟 키워드를 선택하게 됩니다
[13:49]
이제 타겟팅할 최적의 키워드를 선택할 때
[13:51]
키워드를 선택할 때는 두 가지
[13:52]
주요 지표를 살펴봐야 합니다
[13:54]
첫 번째는 검색량, 즉 매월 얼마나 많은
[13:56]
사람들이 구글에서 검색하는지입니다
[13:58]
구글에서요.
[13:59]
당연히 아무도 검색하지 않는
[14:01]
키워드로 순위를 올리려고
[14:02]
시간을 낭비하고 싶지는 않겠죠
[14:04]
두 번째 지표는 경쟁률입니다
[14:07]
기본적으로 현재 얼마나 많은 사람들이
[14:08]
이 키워드로 순위를 올리려 하는지
[14:10]
구글 플랫폼을 거대한 경매장이라고
[14:13]
생각해보세요. 여기서 모든 사람들이
[14:14]
자신의 비즈니스나 서비스와
[14:15]
가장 관련있는 키워드에 대해
[14:17]
순위 경쟁을 하고 있죠
[14:19]
모두가 SEO 노력을 기울여
[14:20]
1위를 차지하려고 경매에 참여합니다
[14:22]
누군가 특정 키워드를
[14:24]
검색할 때 말이죠. 그래서 경쟁률이
[14:26]
매우 중요한데, 당연히
[14:27]
경매장에서 20명만 경쟁하는 것이
[14:29]
천 명이 경쟁하는 것보다
[14:31]
훨씬 좋겠죠
[14:32]
경쟁자가 적을수록
[14:34]
이기기가 더 쉽기 때문입니다
[14:36]
그래서 간단히 말하면
[14:38]
사람들이 자주 검색하는
[14:40]
높은 검색량의 키워드를 찾되
[14:42]
경쟁이 낮아서
[14:44]
순위를 올리기 쉬운
[14:45]
키워드를 찾아야 합니다
[14:47]
자, 다시 구글 애즈로 돌아가보면
[14:49]
보시다시피 여러 지표가 있는데
[14:51]
주목해야 할 두 가지 주요 지표는
[14:52]
월평균 검색량입니다
[14:54]
이는 매달 평균적으로 얼마나 많은
[14:56]
검색이 이루어지는지를 보여주고
[14:57]
두 번째는 경쟁률입니다
[14:59]
경쟁률이 낮으면서
[15:01]
월평균 검색량이 높은
[15:03]
키워드를 찾아야 합니다
[15:05]
월평균 검색량 열을 클릭해서
[15:07]
가장 많은 검색량부터 정렬했고
[15:10]
가장 적은 검색량 순으로
[15:11]
정렬했더니
[15:12]
이 키워드들은 모두 낮은 경쟁률을 보입니다
[15:15]
Deli는 높은 경쟁률을 보이고
[15:18]
AI 에이전트는 현재 매우 인기가 있어서
[15:20]
중간 정도의 경쟁률을 보이고
[15:21]
목록은 계속 이어집니다
[15:24]
약 2,000개의 키워드가 있어서
[15:25]
클러스터를 만들 수 있습니다
[15:27]
SEO를 처음 시작하는 경우
[15:29]
보통 롱테일 키워드나
[15:30]
조금 더 긴 키워드를 찾는 것이 좋습니다
[15:32]
또한 제품이나 서비스와
[15:34]
더 관련성이 높은 키워드를 찾으세요
[15:37]
이런 키워드들은 좀 더 길고
[15:39]
문장 형태를 띄지만
[15:41]
여러분이 원하는 순위에 도달하기 위해
[15:43]
직접적으로 관련된 것들입니다
[15:45]
이런 긴 키워드들은 일반적으로
[15:47]
방금 본 'AI'같은 짧은 키워드보다
[15:48]
순위를 올리기가 더 쉽습니다
[15:51]
그래서 말씀드린 대로
[15:52]
월평균 검색량이 충분히 높고
[15:53]
경쟁률이 낮은 키워드를
[15:55]
찾아서 가져오면 됩니다
[15:57]
이 키워드들을 모아서
[15:59]
클러스터로 만들고
[16:00]
곧 블로그 포스트를 작성할 겁니다
[16:03]
이걸 전체 마케팅 튜토리얼로
[16:06]
만들고 싶지는 않네요
[16:08]
그래서 너무 자세하게 설명하지는 않을 건데요
[16:10]
어떤 키워드를 선택해야 하는지
[16:11]
그리고 실제 클러스터를 선택하기 위해
[16:13]
후보 키워드를 어떻게 필터링해야 하는지
[16:15]
구글 애즈를 사용해서
[16:17]
하지만 만약 여러분이
[16:19]
이것을 자세히 알고 싶다면
[16:20]
아래 댓글로 남겨주세요
[16:22]
제가 정확히 어떻게 했는지
[16:24]
그리고 이 엑셀 시트를
[16:25]
어떻게 만들어서 정확한 키워드를
[16:28]
수학적 계산을 통해 선택했는지
[16:30]
실제 점수를 계산해서
[16:32]
추측 작업을 완전히 제거하는 방법을
[16:34]
자세히 설명해드리겠습니다
[16:36]
자, 이제 더 쉬운 방법을 알아볼 텐데
[16:37]
마케팅 경험이 많지 않다면
[16:39]
추천하는 방법입니다
[16:41]
인생의 모든 좋은 것들처럼
[16:42]
ChatGPT를 통한 쉬운 방법입니다
[16:44]
첫 번째로 할 일은
[16:45]
브라우저에서 ChatGPT를 여는 것입니다
[16:47]
제가 여기서 보여드리는 것처럼
[16:49]
그리고 이 프롬프트를 붙여넣으세요
[16:51]
이 프롬프트는 제가 공유해드릴 거니까
[16:53]
스크린샷 찍으실 필요 없습니다
[16:54]
모든 내용을
[16:55]
아래 설명란에 넣어두겠습니다
[16:57]
이 프롬프트는 기본적으로
[16:58]
제가 지금까지 설명한 모든 내용을
[17:00]
ChatGPT에게 알려주는 것입니다
[17:02]
SEO 랭킹을 위한
[17:04]
올바른 SEO 전략이 무엇인지
[17:07]
어떤 키워드가 좋은지
[17:08]
그리고 그 키워드를 어떻게 찾아내야 하는지
[17:11]
나중에 천천히 읽어보시면 되는데
[17:12]
기본적으로
[17:13]
자주 묻는 질문을 찾고
[17:14]
그 질문들을 사용해서
[17:16]
키워드를 추출하고
[17:17]
그 키워드들을 사용해서
[17:19]
클러스터를 만들고 그 다음
[17:21]
핵심 게시물을 만드는 방식입니다
[17:23]
그리고 ChatGPT에게
[17:24]
따라야 할 형식을 알려줍니다
[17:27]
핵심1 클러스터1 키워드, 클러스터2
[17:29]
그리고 핵심2 클러스터1, 클러스터2
[17:31]
핵심3 등으로 이어지는 방식이죠
[17:33]
여러분이 변경해야 할 부분은
[17:35]
아래쪽의 'continue' 부분입니다
[17:36]
새로운 클라이언트를 맡았다고 가정하고
[17:39]
제가 ChatGPT의 새 고객인 것처럼
[17:41]
클라이언트 이름은 여러분의 회사 이름입니다
[17:43]
예를 들어 저는 제 회사 이름인
[17:46]
Kexa AI를 입력할 거예요
[17:49]
그리고 제공하는 제품이나 서비스는
[17:54]
자동화 서비스입니다
[17:56]
타겟 고객을 위한 서비스죠
[17:59]
여기에 타겟 고객을 입력하세요
[18:01]
제 경우에는 소규모 비즈니스입니다
[18:05]
그리고 엔터를 누르면 됩니다
[18:07]
마지막 부분만 수정하면 되는데
[18:09]
이렇게 하면 프롬프트가
[18:11]
여러분의 비즈니스에 맞춰집니다
[18:13]
만약 ChatGPT 유료 버전을 사용할 수 있다면
[18:15]
reasoning 모델을 사용하는 것을
[18:17]
정말 추천드립니다
[18:19]
reasoning 모델이
[18:21]
이런 복잡한 문제를 다룰 때
[18:23]
ChatGPT가 여러 단계를 거쳐
[18:25]
생각해야 하는 경우에 훨씬 더 좋거든요
[18:27]
보시다시피 이것이
[18:29]
첫 번째 핵심 게시물입니다
[18:31]
중소기업 자동화에 대한 궁극적인 가이드
[18:32]
첫 번째 클러스터는 비즈니스 자동화 기초
[18:35]
그리고 아래에 이러한 키워드들이 있습니다.
[18:36]
두 번째 클러스터는 AI 기반 자동화의 이점
[18:38]
그 다음 KX AI 솔루션, 비즈니스 자동화 구현
[18:41]
비즈니스에서의 자동화 구현
[18:42]
그리고 두 번째 메인 포스트는
[18:44]
중소기업에 적합한 자동화 서비스 선택하기
[18:45]
중소기업의 미래가 다음 메인 포스트이고
[18:47]
이런 식으로 계속 이어집니다.
[18:48]
ChatGPT에게 계속해서 더 많은 내용을
[18:50]
생성하도록 요청할 수 있고
[18:52]
마음에 드는 것은 유지하고
[18:53]
마음에 들지 않는 것은 제거할 수 있습니다.
[18:55]
이제 동일한 차트를 계속 이어서
[18:56]
제가 제공한 두 번째 프롬프트를
[18:58]
붙여넣기 해주시면 됩니다.
[19:00]
이 프롬프트는 기본적으로
[19:02]
위에서 받은 답변을
[19:03]
메인 포스트, 클러스터, 키워드를
[19:05]
적절한 형식으로 재구성하여
[19:07]
엑셀 시트 템플릿에 바로
[19:09]
복사하여 붙여넣을 수 있도록
[19:10]
형식을 맞춰줄 것입니다.
[19:13]
앞서 보여드린 엑셀 시트 템플릿에
[19:15]
이제 이것을 실행해보고
[19:17]
출력이 어떻게 나오는지
[19:18]
정확히 보여드리겠습니다.
[19:20]
사실 이 두 번째 프롬프트에는
[19:23]
추론 모델을 사용할 필요가 없지만
[19:24]
상관없습니다. 이미 했으니까요.
[19:26]
자, 이제 엑셀에 복사하여 붙여넣기 할 수 있는
[19:28]
정확한 테이블 형식이 나왔습니다.
[19:30]
이제 복사해서
[19:31]
맨 아래로 가서 Ctrl+C로 복사하고
[19:34]
클러스터 템플릿을 다시 열어서
[19:38]
붙여넣기만 하면 됩니다.
[19:39]
이게 전부입니다. 이제 클러스터와
[19:44]
각 클러스터의 의도,
[19:46]
그리고 키워드들이 모두 있습니다.
[19:49]
형식이 약간 잘못되어 있어서
[19:51]
텍스트를 감싸면
[19:53]
더 명확하게 볼 수 있습니다.
[19:54]
이것이 이 클러스터의 의도이고
[19:56]
비즈니스 자동화 기초가 있고
[19:58]
그 다음에는
[20:00]
타겟팅하고자 하는 키워드들이 있습니다.
[20:03]
키워드들은 쉼표로 구분되어 있고
[20:05]
주요 키워드도 있습니다.
[20:07]
ChatGPT가 이것도 제공해줬기 때문에
[20:10]
전혀 생각할 필요가 없습니다.
[20:12]
그리고 이 방에 있는 코끼리를 다루자면,
[20:14]
키워드 리서치를 수동으로 해야 한다고
[20:16]
불평할 사람들을 위해 말씀드리면
[20:17]
저는 의도적으로 이 과정을
[20:19]
자동화하지 않기로 했습니다.
[20:21]
솔직히 그렇게 반복적이지 않기 때문입니다.
[20:23]
키워드 리서치를 매일
[20:25]
이틀에 한 번, 삼일에 한 번,
[20:27]
심지어 매주 할 필요도 없고
[20:29]
직접 참여함으로써
[20:30]
부가적인 이점도 얻을 수 있습니다.
[20:33]
자신만의 통찰력을 더하고
[20:35]
어떤 키워드와 클러스터를
[20:36]
자동화에 포함시킬지 선택할 수 있죠.
[20:38]
네, 자동화할 수는 있었지만
[20:40]
자동화하지 않는 것이 더 유익합니다.
[20:42]
자동화하는 것보다 말이죠.
[20:44]
잊지 마세요, 여러분
[20:46]
자동화는 투자 수익에 관한 것입니다.
[20:47]
많은 시간을 들여서
[20:48]
약간의 시간을 절약하려 한다면
[20:50]
시간 낭비일 뿐입니다.
[20:52]
적은 노력으로 많은 시간을 절약하는 것이 목표입니다.
[20:54]
엄청난 시간을 절약하는 것이 목표입니다.
[20:57]
이 점을 잊지 마세요.
[20:59]
이제 지루한 마케팅 설명은 끝났으니
[21:00]
재미있는 부분으로 넘어가겠습니다.
[21:02]
이번 섹션에서는
[21:03]
여러분께 정확히 보여드리겠습니다.
[21:05]
전체 SEO 캠페인을 어떻게
[21:06]
주당 1달러 미만으로 자동화할 수 있는지 설명하겠습니다.
[21:09]
말씀드렸듯이 두 가지 유형의
[21:10]
블로그 포스트가 있습니다. 첫 번째는
[21:12]
키워드를 타겟팅하는 클러스터 SEO
[21:14]
포스트이고, 두 번째는
[21:15]
트렌드 포스트로 최신 트렌드 키워드를
[21:17]
타겟팅합니다. 이는 주로
[21:19]
최근에 발생한 뉴스와
[21:20]
사람들이 검색하는 내용입니다.
[21:22]
먼저 클러스터 SEO
[21:24]
포스트에 대해 이야기해보겠습니다.
[21:26]
클러스터 SEO 포스트의 최종 결과가
[21:27]
어떤 것인지 보여드리겠습니다.
[21:29]
이것은 2월 3일에
[21:31]
제 웹사이트에 게시된 포스트입니다.
[21:33]
멀티 에이전트 시스템: 비즈니스를 위한
[21:35]
AI 에이전트 확장 종합 가이드
[21:36]
보시다시피 상단에 이미지가 있고
[21:38]
그 다음에 H1 헤더 또는 제목이 있습니다.
[21:41]
그리고 핵심 요약 섹션이 있는데
[21:43]
이는 이 글의 결론을
[21:45]
정확히 요약해서 보여줍니다.
[21:47]
그리고 예상 읽기 시간도 표시되어 있죠.
[21:50]
이 글은 8분이 소요됩니다.
[21:51]
목차 섹션이 있어서
[21:53]
원하는 항목을 클릭하면
[21:55]
해당 섹션으로 바로 이동할 수 있습니다.
[21:57]
블로그 포스트의 정확한 위치로 이동하고
[21:58]
intro 제목 1과 작은 부제목들이 있습니다.
[22:02]
그리고 제목 2도 있고
[22:04]
이런 식으로 계속됩니다.
[22:06]
링크들도 많이 있는데, 한번 확인해볼까요?
[22:08]
예를 들어 이것은 내부 링크입니다.
[22:10]
제 다른 블로그 포스트로 연결되죠.
[22:11]
이것도 한번 볼까요?
[22:13]
이것은 외부 링크로 연결됩니다.
[22:16]
smth hos.com이라는 웹사이트로 이동하네요.
[22:21]
계속 진행하면서 같은 방식으로
[22:24]
내부 링크와
[22:25]
외부 링크가 있고, H1 헤더와
[22:27]
제목과 부제목들이 있습니다.
[22:31]
그리고 결론 섹션과 행동 유도
[22:33]
섹션이 있고 이게 전부입니다.
[22:36]
보시다시피 최종 결과는
[22:37]
정말 훌륭해 보이고
[22:39]
믿기 힘들겠지만 이 포스트를 위해
[22:41]
자동화를 켜고 놔두는 것 외에는
[22:43]
아무것도 하지 않았습니다.
[22:45]
자, 이제 이것을 어떻게 구현하는지
[22:47]
살펴보겠습니다. 이 자동화는
[22:49]
매우 선형적이고 순차적으로 보이는데
[22:51]
이는 의도적으로 설계한 것입니다.
[22:53]
많은 분들이 궁금해하실 텐데요.
[22:54]
왜 AI 에이전트를 사용해서
[22:57]
전체 리서치를 하지 않았냐고
[22:58]
또 왜 AI 에이전트로
[23:00]
내부와 외부 링크 작업을 하지 않았냐고요.
[23:03]
실제로 저는 제대로 작동하는
[23:04]
자동화를 만들고 싶었기 때문입니다.
[23:06]
수천 번의 클릭을 얻는
[23:07]
자동화가 아니라
[23:09]
계속해서 실행할 수 있고
[23:10]
자동으로 블로그를 포스팅하면서
[23:12]
SEO가 점점 더 좋아지는
[23:14]
그래서 솔직히 때로는 전통적인
[23:16]
규칙 기반 자동화가 훨씬 더 효과적입니다.
[23:19]
여러 AI 에이전트들이
[23:21]
무작위로 여러 작업을 하는 것보다
[23:23]
연구를 수행할 AI 에이전트를 두고
[23:25]
내부 및 외부 링크를 담당할 에이전트를 두고
[23:27]
또 다른 에이전트가
[23:28]
제목이나 메타 설명 등을
[23:30]
처리하도록 하는 것은
[23:32]
이론적으로는 99%의 경우에 작동할 수 있지만
[23:35]
100% 완벽하게 작동하지는 않을 겁니다
[23:37]
그리고 저는 매번
[23:38]
확인하고 싶지 않습니다
[23:40]
게다가 사용될 토큰의 양도
[23:42]
훨씬 더 많아질 것이고
[23:43]
자동화를 실행하는 데 들어가는
[23:44]
주간 비용 측면에서도
[23:46]
더 비싸질 것입니다
[23:48]
그래서 저는 의도적으로 이 자동화에서
[23:52]
AI 에이전트를 사용하지 않기로 했습니다만
[23:55]
원하신다면 AI 에이전트를
[23:57]
쉽게 추가할 수 있습니다
[23:59]
하지만 실제로는 에이전트가 필요하지 않아서
[24:01]
시간을 낭비하지 않겠습니다
[24:03]
자, 이제 시작해보죠. 모든 자동화에는
[24:05]
자동화를 시작하는 트리거가 필요합니다
[24:07]
자동화에게 '지금 실행해야 해'라고
[24:09]
알려주는 것이죠. 이 자동화에서 사용하는
[24:11]
트리거는 당연히
[24:12]
스케줄 트리거입니다
[24:14]
자동화가 주기적으로 실행되기를 원하기 때문이죠
[24:16]
매주 또는 2주마다,
[24:18]
혹은 3주마다
[24:20]
블로그 포스팅을 얼마나 자주
[24:21]
하고 싶은지에 따라 다릅니다
[24:23]
스케줄 트리거 노드를 클릭하면
[24:26]
07 * * 4로 설정된 것을 볼 수 있습니다
[24:30]
이것은 매주 목요일
[24:32]
오전 7시를 의미합니다
[24:34]
월화수목 중 네 번째 날인 목요일
[24:37]
매주 목요일 오전 7시에
[24:39]
이 자동화가 실행되어
[24:41]
포스팅을 하게 됩니다
[24:42]
만약 오후 9시로 변경하고 싶다면
[24:45]
21을 입력하면 됩니다
[24:48]
그리고 화요일로 변경하려면
[24:50]
* * 2를 입력하면 됩니다
[24:52]
정말 간단하죠
[24:55]
원하는 날짜와 시간으로
[24:57]
자유롭게 변경하실 수 있고
[24:58]
또는 특정 간격으로
[25:01]
2일, 3일, 4일마다
[25:03]
주기적으로 설정할 수도 있습니다
[25:04]
하지만 저는
[25:06]
특정 요일과 시간을 정해서
[25:08]
매주 포스팅하는 것을
[25:09]
추천드립니다
[25:12]
사실 매주
[25:13]
수천 개의 블로그 포스트를 올릴 필요는 없고
[25:15]
주 2회 정도가 적당하다고 생각합니다
[25:18]
3회도 괜찮지만
[25:19]
구글에 스팸처럼 보이지 않도록
[25:21]
주의해야 합니다
[25:23]
자, 이제 계속 진행해보죠
[25:26]
이 자동화의 첫 번째 구성요소는
[25:27]
어떤 주제로
[25:29]
블로그를 포스팅할지 정하는 것이고
[25:31]
이는 곧
[25:32]
특정 키워드 클러스터에 대한
[25:34]
정보를 검색하는 것입니다
[25:37]
우리가 함께 만든 엑셀 템플릿을
[25:39]
가져와야 합니다
[25:41]
클러스터 의도 키워드와
[25:43]
주요 키워드가 있는 엑셀 시트를
[25:45]
Google Sheets로 옮기는 것이 좋습니다.
[25:46]
N8N과 연동할 때 작업하기가 더 쉽거든요.
[25:48]
그래서 복사해서 구글 시트에
[25:50]
붙여넣기를 하시고
[25:52]
여기에 추가로 한 개의 열을 더 만드는데
[25:54]
'completed'라는 열을 추가하세요
[25:57]
completed는 단순히 의미하는 것이
[25:59]
이 클러스터에 대한 블로그 포스트를 작성했는지 여부입니다
[26:01]
예를 들어 첫 번째는 yes로 표시해보죠
[26:04]
이미 그 블로그 포스트를 작성했다고 가정하고
[26:06]
나머지는 no로 표시하면 됩니다
[26:07]
나머지 항목들은 전부 no로 표시하고
[26:10]
쭉 아래로 내려가면서 no를 입력하세요
[26:13]
나머지 모든
[26:15]
항목들에 대해서요
[26:16]
자, 이렇게 하면 간단하게 끝납니다
[26:18]
이제 자동화로 돌아가보죠
[26:20]
여기서 목표는
[26:22]
특정 블로그 포스트에 대한 정보를
[26:24]
클러스터 정보를 가져와서 얻는 것입니다
[26:25]
클러스터 의도 키워드와
[26:27]
주요 키워드, 그리고 완료 여부를
[26:30]
가져와야 하는데
[26:32]
이를 위해 Google Sheets 노드를 사용합니다
[26:33]
먼저 인증을 하고
[26:35]
Google Sheets API에 연결해야 하는데
[26:38]
이건 매우 간단합니다
[26:41]
자세히 설명하진 않겠지만
[26:42]
구글 계정으로 로그인하고
[26:44]
OAuth 인증만 하면 됩니다
[26:47]
그리고 나서
[26:48]
'get row'를 선택하고
[26:50]
정보를 가져올 시트를 선택하세요
[26:53]
여기서는 'keywords new'라는
[26:55]
시트를 사용하는데
[26:57]
이건 데모용이에요
[26:58]
실제 블로그 포스팅에 사용하는 건 아닙니다
[27:01]
'keywords new'로 변경하면
[27:02]
이게 제 구글 시트가 되고
[27:05]
그 다음 페이지를 선택하라고 할 겁니다
[27:07]
여기서 보시면
[27:09]
페이지 이름이 'sheet one'인데
[27:10]
이건 필러 포스트에 따라 변경할 수 있어요
[27:12]
이건 하나의 필러 포스트에 대한 것이고
[27:15]
만약 다른 필러 포스트가 있다면
[27:17]
새로운 시트를 추가하고
[27:19]
필러 포스트라고 이름을 붙이면 됩니다
[27:22]
필러 포스트 2번이라고 하죠
[27:27]
두 번째 필러 포스트의
[27:28]
이름을 붙이고
[27:31]
첫 번째는 필러 포스트 1번이 되는 거죠
[27:34]
이것들은 첫 번째 필러 아래의 클러스터들이고
[27:36]
나머지는 두 번째 필러 아래의
[27:37]
클러스터들이 되는 겁니다
[27:39]
첫 번째 필러를 선택하면 되는데
[27:42]
필러 포스트 1번을 지금 사용하고 있죠
[27:43]
나머지는 그대로 두고
[27:45]
실행해보면
[27:47]
어떻게 되는지 보여드리겠습니다
[27:48]
무슨 일이
[27:49]
일어나는지 자, 간단하죠
[27:52]
아니 잠깐, 우리가 너무 많은 행을
[27:55]
가져왔네요
[27:57]
한 행만 가져오고 싶은데
[27:58]
옵션을 빠르게 추가해보죠
[28:00]
'첫 번째 일치하는 행만 반환'으로 설정하고
[28:02]
다시 한번 시도해볼게요
[28:04]
무슨 일이 있었는지 알겠네요
[28:06]
아, 이유를 알았어요
[28:09]
구글 시트를 변경했더니
[28:11]
필터링도 제거됐네요
[28:13]
기본적으로 목표는
[28:15]
다시 돌아가서 보면
[28:18]
첫 번째 행만 가져오는 거예요
[28:20]
아직 완료되지 않은 것을 가져와야 하므로
[28:21]
여기에 필터를 추가할 건데요, 필터 추가하고
[28:25]
completed 컬럼을 선택하고
[28:28]
값을 'no'로 설정합니다.
[28:30]
첫 번째로 일치하는 항목만 가져올 거예요
[28:32]
completed 컬럼의 값이
[28:34]
아직 블로그 포스팅이 되지 않은 'no'인 것만요
[28:36]
다시 한번 시도해 보겠습니다
[28:38]
이제는 확실히 작동할 거예요
[28:39]
자, 보세요. 잘 되네요
[28:42]
보시는 것처럼 3번째 행이
[28:43]
멀티 에이전트 시스템 복잡한 상호작용이군요
[28:45]
기타 등등이 있네요
[28:47]
1, 2, 3번 행 중 첫 번째 'no'인 것
[28:49]
완벽해요. 이제 블로그에 대한
[28:51]
정보를 가지고 있고
[28:53]
클러스터는 단순히 그 클러스터의 이름이고
[28:55]
의도도 있고
[28:57]
클러스터 내의 키워드들도 있고
[28:59]
주요 키워드도 정의되어 있죠
[29:01]
아주 간단하죠. 이제 우리가 하고 싶은 것은
[29:03]
포스트에 대한 예비 계획을 세우는 거예요
[29:06]
그래서 이 예비 계획을 사용해서
[29:08]
포스트를 리서치할 수 있도록
[29:09]
예비 계획은 말 그대로
[29:12]
OpenAI 모듈을 사용할 거예요
[29:14]
아주 간단한데요, 이런 작업에는
[29:16]
추론 모델을 사용하는 게 좋아요
[29:19]
추론 모델이
[29:20]
계획을 세울 때 더 잘 작동하거든요
[29:22]
그래서 저는 OpenAI 0.1 Mini를 선택했어요
[29:24]
Open Router를 통할 필요는 없고
[29:26]
OpenAI API 키로 직접 할 수 있어요
[29:27]
하지만 전 Open Router를 통해 하기로 했죠
[29:30]
크게 상관은 없습니다
[29:31]
그리고 OpenAI API 키를 n8n에 연결하는 것도
[29:34]
매우 간단한데
[29:35]
OpenAI 플레이그라운드에 가서
[29:38]
새로운 API 키를 받고
[29:40]
여기에 복사 붙여넣기만 하면 됩니다
[29:42]
이렇게 오셔서
[29:43]
여기에 붙여넣기만 하면 돼요
[29:44]
아주 간단하죠. 그리고 제가
[29:46]
프롬프트도 정의해놨는데
[29:48]
바꿀 필요는 없을 거예요
[29:49]
당신은 팀의 일원으로
[29:50]
블로그 포스트를 작성하는데
[29:52]
각 블로그 포스트 프로젝트에는
[29:54]
키워드 리스트와 검색 의도가 제공되고
[29:55]
키워드에 대해 설명했죠
[29:57]
검색 의도와 주요 키워드가
[29:58]
제가 설명한 것처럼
[29:59]
그리고 키워드 리스트와 검색 의도가 주어지면
[30:01]
블로그 포스트의 목적을 이해하고
[30:03]
포스트 흐름의 사고 과정을 파악하고
[30:04]
예비 계획을 세우는 게 당신의 일이에요
[30:06]
포스트에 대한 예비 계획을 세우고
[30:07]
그리고 출력이 어떻게 보여야 하는지
[30:09]
구체적인 지침을 제공했어요
[30:11]
출력이 어떻게 보여야 하는지에 대해
[30:12]
그리고 물론
[30:15]
이전 노드에서 키워드들과
[30:18]
검색 의도, 주요 키워드를
[30:19]
첨부했죠. 이게 프롬프트의 모습이에요
[30:22]
이전 노드의 정보와 함께요
[30:24]
이제 실행해 보겠습니다
[30:27]
오래 걸리지 않을 거예요... [시간 경과]
[30:31]
자, 됐네요. 이제
[30:33]
포스트에 대한 예비 계획이 나왔어요
[30:35]
예비 블로그 포스트 계획: 멀티 에이전트 시스템
[30:37]
소개 등등이 있네요
[30:40]
이제 이걸 잠시 놔두고
[30:42]
이제 우리가 할 일은
[30:43]
게시물에 대한 예비 계획을 가져와서
[30:45]
Perplexity를 사용해 리서치를 할 겁니다
[30:48]
혹시 Perplexity에 대해 모르시는 분들을 위해 설명하자면
[30:50]
Perplexity는 제가
[30:52]
매일 사용하는 도구입니다
[30:53]
정말 추천드리니 지금 바로 시작해보세요
[30:56]
사실 Perplexity는 전체 기능을 설명하려면
[30:58]
별도의 영상이 필요할 정도입니다
[31:00]
어떻게 작동하는지 자세히 설명하려면
[31:01]
곧 영상을 하나 더 만들 것 같은데
[31:03]
일단은 저를 믿고
[31:05]
Perplexity를 검색해서
[31:07]
사용해보세요. 정말 놀라울 거예요
[31:09]
지금 빠르게 Perplexity가
[31:11]
어떻게 작동하는지 보여드리겠습니다
[31:12]
기본적으로 리서치 도구인데
[31:14]
구글 크롬에서 검색하듯이
[31:16]
특정 정보를 찾을 수 있고
[31:18]
Perplexity는 이를 더 쉽게 만들어주죠
[31:20]
상위 링크들을 요약해서
[31:22]
모든 정보를 종합하고
[31:24]
그 요약된 정보를
[31:25]
직접 찾아보지 않아도
[31:27]
질문에 대한 답을 바로 얻을 수 있습니다
[31:29]
예를 들어, 'Deep Seek가 무엇인가요?'라고
[31:31]
검색하면, 바로 이렇게 검색이 됩니다
[31:37]
보시다시피 Perplexity는
[31:39]
여러 출처와 링크들을 보여주고
[31:40]
찾아본 모든 링크들을
[31:42]
종합해서
[31:44]
인터넷에서 찾은 답변을 제공합니다
[31:47]
인용문도 포함해서요
[31:50]
인터넷 검색과 링크 수집에
[31:52]
정말 훌륭한 도구이고
[31:54]
인용문 작성에도 아주 유용합니다
[31:58]
그래서 우리가 여기서
[31:59]
이것을 사용하는 거죠
[32:01]
Perplexity 연결 방법을
[32:03]
보여드리겠습니다. 아주 간단한데요
[32:05]
HTTP 요청 노드를 사용하면 됩니다
[32:08]
참고로 말씀드리면
[32:09]
이걸 하나하나 다 만들어서
[32:11]
제가 설정한 대로 구성하시는 건
[32:13]
추천하지 않습니다
[32:15]
그냥 다운로드 받으시고
[32:17]
원하시면 수정해서 사용하시면 됩니다
[32:18]
설명란에서 다운로드하시고
[32:20]
모든 기능을
[32:21]
사용하실 수 있습니다
[32:23]
시간 낭비하지 마시고
[32:24]
지금 보여드리는 건
[32:26]
자동화 과정의 흐름을 이해하시라고 하는 거예요
[32:29]
HTTP 요청 모듈이나
[32:30]
노드가 필요한데
[32:32]
POST 요청을 사용합니다
[32:34]
Perplexity에 검색 쿼리를 보내고
[32:36]
검색하게 하기 위해서죠
[32:38]
Perplexity에 데이터를 보내야 하므로
[32:40]
POST 요청을 사용해야 합니다
[32:43]
정의해야 할 URL은
[32:44]
Perplexity 채팅 완성 URL입니다
[32:46]
여기 보이는 이 URL이죠
[32:49]
그리고 Perplexity API에
[32:51]
인증하고 연결해야 하는데
[32:54]
방법을 모르시면
[32:55]
아주 간단합니다
[32:56]
Perplexity로 돌아가서 이 아이콘을
[32:59]
클릭하시고
[33:00]
계정 만드신 후 설정에서
[33:02]
API 키가
[33:03]
바로 보일 겁니다. API 키를 복사해서 돌아오시면 됩니다
[33:06]
인증 설정이 일반 자격 증명 유형이고
[33:08]
헤더 인증이 설정되어 있는지 확인하세요
[33:11]
그 다음 클릭해서 들어가면
[33:15]
이름을 'authorization'으로 설정하고
[33:17]
헤더 값을 'Bearer' 스페이스로 설정합니다
[33:21]
그 다음에는 API 키가 들어갑니다
[33:23]
여기에 본인의 API 키를 넣으세요
[33:26]
이름은 'authorization'으로 하고
[33:28]
값은 'Bearer 스페이스 API 키'로 설정하면 됩니다
[33:30]
저는 이것을 저장하지 않고 넘어가겠습니다
[33:33]
다음으로 넘어가서
[33:35]
요청 본문이 활성화되어 있는지 확인하고
[33:37]
요청은 JSON을 사용해서 보내야 하며
[33:39]
이런 형태의 요청이 됩니다
[33:42]
요청의 세부 내용은 생략하겠지만
[33:44]
두 가지 중요한 요소가 있습니다
[33:46]
첫 번째는 선택할 모델입니다
[33:47]
두 가지 중요한 구성 요소 중
[33:49]
첫 번째는 사용할 모델입니다
[33:51]
저는 확실히
[33:52]
Sona Pro를 추천드립니다
[33:54]
Sona Pro는 Perplexity의 변형 버전으로
[33:57]
더 심층적인 리서치를 제공하고
[34:00]
두 배 더 많은 소스와
[34:03]
링크, 하이퍼링크를 제공합니다
[34:06]
정보를 찾아볼 수 있는
[34:07]
일반 Sona 모델은
[34:10]
5개의 인용만 제공하는 반면
[34:13]
Sona Pro는 10개를 제공합니다
[34:15]
우리는 블로그 포스트를 만들고 있고
[34:17]
외부 링크가 필요하기 때문에
[34:18]
가능한 한 많은 링크를 얻고 싶습니다
[34:20]
그래서 모델을 Sona Pro로
[34:21]
설정해야 합니다
[34:23]
그리고 시스템 프롬프트를 정의했는데
[34:26]
이건 신경 쓰지 않으셔도 되고
[34:28]
사용자 프롬프트는
[34:29]
실제로 검색하고 싶은
[34:31]
검색어가 됩니다
[34:32]
블로그 글 작성을 위한
[34:33]
리서치를 도와달라고 했고
[34:35]
다음 블로그 계획의
[34:37]
각 제목에 대한 심층 연구를 요청했습니다
[34:39]
이전 노드의 계획을 입력했어요
[34:41]
이렇게 입력하고
[34:44]
Perplexity에서 어떤 결과가 나오는지 보겠습니다
[34:46]
자, 여기 Perplexity가 제공한 10개의 링크가 있고
[34:50]
리서치를 위한
[34:51]
실제 연구 내용은
[34:53]
컨텐츠에 있습니다
[34:55]
다중 에이전트 시스템 소개와
[34:57]
인용이 포함된
[34:59]
모든 정보가 여기 있습니다
[35:02]
앞서 봤던 것과 똑같이
[35:04]
완벽합니다
[35:06]
자동화의 리서치 부분은 여기까지이고
[35:09]
다음으로 포맷을 수정하는
[35:10]
노드가 있습니다
[35:12]
여기서 보시면 알 수 있듯이
[35:16]
Perplexity는 소스를 숫자로 인용합니다
[35:19]
2번, 3번, 4번처럼요
[35:20]
그리고 1번은 이 링크,
[35:22]
2번은 이 링크,
[35:23]
3번은 이 링크 이런 식으로
[35:25]
AI가 작업하기에는
[35:27]
외부 링크 처리가 좀 어려워서
[35:30]
노드를 하나 만들었습니다
[35:33]
숫자 1, 숫자 2를
[35:35]
실제 링크로 변환하는 노드입니다
[35:36]
예를 들어 숫자 1 대신
[35:38]
'Source HTTP...' 형식으로
[35:41]
실제 URL을 표시합니다
[35:42]
URL 자체를 수정하는 방법인데,
[35:45]
이 부분은 신경 쓰지 않으셔도 됩니다.
[35:46]
그리고 실제 블로그 포스트 플랜 노드가 있는데,
[35:49]
이것은 블로그 포스트에 대한 상세한 계획을 제공합니다.
[35:52]
한번 살펴보도록 하겠습니다.
[35:53]
말씀드린 대로 이것은 또 다른 OpenAI 모듈입니다.
[35:55]
당연히 말씀드렸듯이
[35:57]
n8n에서는 OpenAI 노드라고 부르는데요.
[35:59]
제가 말씀드린 것처럼, 가능한 최고의 추론 모델을 사용하시길 권장합니다.
[36:02]
저는 O1 프리뷰 모델이나
[36:04]
DeepSeek R1 모델을 추천드립니다.
[36:06]
저는 DeepSeek R1을 사용했었는데,
[36:10]
며칠 정도 써봤습니다만,
[36:13]
DeepSeek R1의 문제점은
[36:15]
자주 오류가 발생하고
[36:16]
실행하는 데 시간이 오래 걸린다는 점입니다.
[36:19]
그래서 이 데모와 프레젠테이션을 위해
[36:22]
O1 프리뷰를 사용하기로 했습니다.
[36:24]
원하신다면 DeepSeek R1을 사용할 수 있는데,
[36:26]
정말 뛰어난 모델입니다.
[36:29]
OpenAI 모델을 사용하시려면,
[36:31]
플레이그라운드에서 OpenAI API 키를
[36:34]
입력하시면 됩니다.
[36:36]
간단히 연결될 것입니다.
[36:38]
그리고 사용자 메시지에서
[36:39]
제가 정의한 내용을 보여드리겠습니다.
[36:42]
당신은 세계적 수준의 블로그 포스트를 작성하는 팀의 일원입니다.
[36:44]
각 블로그 포스트 프로젝트에서
[36:46]
키워드 리스트와 주요 키워드,
[36:47]
검색 의도 연구 결과,
[36:49]
그리고 예비 블로그 포스트 계획이 제공됩니다.
[36:50]
각 입력값의 정의를 설명드리면,
[36:52]
키워드, 검색 의도, 연구 결과,
[36:55]
예비 계획이 있습니다.
[36:57]
주요 키워드와 함께
[36:59]
모든 것을 다시 설명했습니다.
[37:00]
그리고 이 정보를 바탕으로
[37:02]
상세한 블로그 포스트 계획을 만들어야 합니다.
[37:04]
출력에는 블로그 포스트 계획이 포함되어야 하고,
[37:06]
특정 포맷을 따라야 합니다.
[37:08]
원하는 방식으로 출력을 얻기 위해
[37:10]
구체적인 지침을 제공했습니다.
[37:12]
직접 읽어보실 수 있지만,
[37:14]
이 프롬프트에서 많이 벗어나지 않는 것이 좋습니다.
[37:16]
시간을 들여 최적화했기 때문에
[37:18]
꽤 좋은 프롬프트라고 생각합니다.
[37:20]
이전 노드에서 전달할 정보로는
[37:22]
키워드, 검색 의도, 예비 계획, SEO 연구 결과,
[37:25]
주요 키워드가 있습니다.
[37:27]
프롬프트 안의 모든 내용을
[37:29]
OpenAI에 전송하여
[37:31]
블로그 포스트의 적절한 계획을 받습니다.
[37:33]
전달하고 싶은 정보에 대해
[37:34]
이전 노드에서 키워드,
[37:36]
검색 의도, 예비 계획,
[37:38]
SEO 연구 결과, 주요 키워드 등
[37:40]
프롬프트 내의 모든 것을
[37:41]
OpenAI에 보내서
[37:44]
블로그 포스트에 대한
[37:46]
적절한 계획을 받아야 합니다.
[37:49]
블로그 포스트...
[37:50]
잠시 후... O1 프리뷰는 응답이 느린 모델입니다.
[37:54]
특히 이런 복잡한 프롬프트를 주면
[37:56]
생각하는 시간이 필요해서
[37:57]
시간이 좀 걸립니다.
[37:59]
생각할 시간이 필요하고
[38:01]
시간이 걸리죠.
[38:03]
자, 여기 출력이 나왔네요.
[38:06]
상세한 블로그 포스트 계획이 나왔고,
[38:08]
필요한 정보가 다 있습니다.
[38:09]
좋습니다. 이제 이 블로그 포스트 계획을
[38:12]
카피라이팅 노드에 전달하여
[38:14]
실제 블로그 포스트를
[38:16]
작성하도록 할 것입니다.
[38:17]
이제 블로그 포스트를 자동으로 작성하게 됩니다.
[38:20]
Anthropic의 Claude 3.5 Sonet을 사용하는 것을 추천드립니다.
[38:23]
이 노드에는 Claude 3.5 Sonet이 좋은데요,
[38:26]
아시다시피 Claude 3.5 Sonet은
[38:28]
카피라이팅에서 훨씬 더 자연스러운 문체를 구사합니다.
[38:32]
AI가 쓴 것처럼 보이지 않고
[38:35]
사람이 쓴 것처럼 들리죠.
[38:37]
그래서 카피라이팅 작업에
[38:39]
매우 효과적입니다.
[38:40]
제가 말씀드린 대로 3.5 Sonet을 사용하시거나
[38:42]
원하신다면 GPT 4.0도 좋은 선택입니다.
[38:43]
하지만 절대로 추론 모델은 사용하지 마세요.
[38:47]
Claude 3.5 Sonet에 연결하시려면
[38:50]
Anthropic 웹사이트를 통해 직접 연결하거나
[38:51]
제가 한 것처럼 Open Router를 통해
[38:53]
연결하실 수 있습니다.
[38:55]
매우 간단한데요, API 키를 검색하시면
[38:57]
바로 찾으실 수 있습니다.
[38:59]
정말 간단하고
[39:00]
직관적이라 자세한 설명은 생략하겠습니다.
[39:02]
정확한 과정은 설명하지 않겠지만
[39:04]
매우 간단하니 Claude 3.5 Sonet에
[39:05]
직접 연결해 보세요.
[39:09]
그리고 나서 사용자 프롬프트를 정의할 수 있습니다.
[39:11]
제가 정의한 사용자 프롬프트는
[39:13]
블로그 포스트의 형식을 지정한 것입니다.
[39:16]
원하시는 형식이 따로 있다면 자유롭게 변경하셔도 됩니다.
[39:18]
하지만 제가 여기서 사용한 방식이 꽤 효과적이라고 생각합니다.
[39:23]
제가 설정한 프롬프트를 보면
[39:25]
'당신은 최고 수준의 블로그 포스트를 작성하는 팀의 일원입니다.'
[39:26]
'팀의 최고 카피라이터이며'
[39:28]
'실제 블로그 포스트 작성을 담당하고 있습니다.'
[39:32]
'각 새로운 블로그 포스트 프로젝트에 대해'
[39:34]
'상세한 계획과 연구 결과를 제공받습니다.'
[39:36]
'당신의 임무는 이 상세 계획에 따라'
[39:38]
'블로그 포스트를 작성하는 것입니다.'
[39:39]
'블로그 포스트는 반드시 계획을'
[39:42]
'단계별로 정확하게 따라야 합니다.'
[39:43]
'짧은 단락을 사용하고, 글머리 기호를 활용하며'
[39:46]
'불필요한 내용을 피하고, 상세하게 작성하며, 키워드를 포함하세요.'
[39:49]
전체 프롬프트를 다 설명하진 않겠지만
[39:51]
꽤 효과적인 프롬프트입니다.
[39:53]
블로그 포스트 길이는 2,500단어로 지정했고
[39:57]
초등학교 5학년 수준의 읽기 난이도를 요청했습니다.
[40:00]
이 모든 설정을 마친 후
[40:02]
이전 노드에서 얻은 상세 계획과
[40:04]
연구 자료에 대한 접근 권한을 주고
[40:05]
블로그 포스트를 작성하도록 했습니다.
[40:06]
어떤 결과가 나왔는지 확인해볼까요?
[40:08]
자, 여기 최종 블로그 포스트가 있습니다.
[40:11]
'멀티 에이전트 시스템의 부상:'
[40:13]
'기업을 위한 완벽 가이드'
[40:15]
'오늘날 빠르게 진화하는 AI 환경에서'
[40:17]
'멀티 에이전트 시스템은 조직들이'
[40:20]
'복잡한 문제를 해결하는 방식을 변화시키고 있습니다.'
[40:22]
'이러한 정교한 에이전트 네트워크는...'
[40:24]
등등의 내용이 이어집니다.
[40:28]
최종 블로그 포스트는 곧 보여드리겠습니다.
[40:30]
실제 출력이 어떻게 나왔는지
[40:32]
보여드리겠지만, 일단 이 노드가
[40:34]
잘 작동하고 훌륭한 결과를 만든다는 점만 알아두세요.
[40:37]
다음으로 넘어가서, 이제 무슨 일이 일어나는지 보겠습니다.
[40:41]
다음으로는 내부 링크를 정리해야 합니다.
[40:43]
연구 자료를 살펴보고 링크를 수정한 다음
[40:45]
블로그 작성자에게 전달했을 때
[40:48]
보셨듯이, 실제 블로그에
[40:49]
모델에게 링크를 유지하도록 지시했습니다.
[40:55]
외부 링크를 그대로 두어서, 여기를 보시면
[40:57]
아마 외부 링크가 보일 텐데요
[40:58]
자, 여기 있네요. IBM으로 연결되는 링크입니다
[41:00]
외부 링크는 이미 정리가 되어 있고
[41:01]
이제 우리가 해야 할 것은
[41:03]
내부 링크를 정리하는 것입니다
[41:04]
이것이 좋은 블로그 포스트의 두 번째로
[41:06]
중요한 구성 요소라고 전에 말씀드렸죠
[41:09]
이를 위해서 제가 빠르게
[41:11]
다른 구글 시트를 보여드려야 할 것 같은데
[41:12]
이전 포스트라고 불렀던 시트가 있는데
[41:14]
아, 죄송합니다. 이전 포스트가 아니라
[41:17]
완료된 키워드라고 부르는 시트입니다
[41:18]
기본적으로 이 구글 시트는
[41:20]
여러분에게도 엑셀 템플릿으로
[41:22]
제공해 드릴 예정인데요
[41:24]
기본적으로 이것은
[41:26]
제가 이전에 작성했던 블로그 포스트를 기록하는
[41:29]
엑셀 시트입니다
[41:31]
블로그 포스트를 작성할 때마다
[41:33]
블로그 제목과
[41:35]
포스트에 포함된 키워드를 기록하고
[41:36]
또한 블로그 포스트의
[41:38]
요약도 함께 기록합니다
[41:41]
이를 통해 블로그의 요점이나
[41:42]
주제를 쉽게 이해할 수 있고
[41:44]
블로그 포스트에 접근할 수 있는
[41:46]
URL도 함께 저장합니다
[41:47]
보시다시피 지금까지 꽤 많은
[41:49]
약 39개의 블로그를 작성했는데요
[41:52]
이는 몇 달에 걸쳐 작성된 것이고
[41:54]
솔직히 말씀드리면 완전히 일관적으로
[41:55]
작성하지는 못했습니다
[41:58]
하지만 블로그를 포스팅할 때마다
[42:00]
제목, 키워드, 그리고 요약을 여기에 기록하고 있죠
[42:03]
자, 이제 내부 링크를 어떻게
[42:05]
구현할 것인지 설명드리겠습니다
[42:06]
매우 간단하고 명확한 방법인데요
[42:08]
이전 포스트의 모든 정보를 가져와서
[42:10]
현재 블로그 포스트의 어느 부분이
[42:13]
다른 블로그 포스트와 관련이 있는지
[42:15]
판단하는 데 이 정보를 사용합니다
[42:19]
그리고 적절한 내부 링크를
[42:21]
제공하게 되죠
[42:22]
이전 포스트 모드를 보시면
[42:24]
완료된 키워드에서 모든 행을 가져오도록
[42:26]
설정했음을 확인할 수 있습니다
[42:29]
이 단계를 테스트하면 매우 간단한데
[42:31]
완료된 키워드에서 모든 행을 가져올 것입니다
[42:34]
자, 보시면 매우 간단하죠
[42:36]
모든 행을 가져왔고
[42:38]
말씀드린 대로 38개의 블로그 포스트가 있습니다
[42:40]
38개의 항목이 있고, 이제 저는
[42:43]
이 정보들을 하나로 통합할 겁니다
[42:46]
모든
[42:47]
정보를 하나의 항목으로 통합하는 거죠
[42:51]
OpenAI 노드를 38번 실행하지 않기 위해서입니다
[42:53]
모든 데이터가 하나의 큰 덩어리가 되면
[42:56]
그 데이터를 가져와서
[42:58]
OpenAI 노드나 대규모 언어 모델에
[43:00]
전달할 것입니다
[43:02]
그리고 OpenAI 노드에게
[43:05]
내부 링크 기회를 분석하고
[43:06]
실제로 링크를 만들어달라고 요청할 겁니다
[43:08]
여기서는 추론 모델을 사용했는데
[43:11]
여러분도 이런 상황에서는
[43:13]
추론 모델을 사용하시는 걸
[43:14]
추천드립니다
[43:15]
조금 더 복잡한 작업이라 모델이
[43:17]
생각을 해야 하거든요. 저는 비용을 줄이기 위해
[43:19]
GPT-3.5를 사용했지만, 원하신다면
[43:21]
GPT-4나 다른 모델을 사용하실 수 있습니다
[43:23]
GPT-3.5나 다른 모델도 사용 가능하죠
[43:25]
자, 이제 우리가 정의한
[43:26]
사용자 프롬프트를 살펴보겠습니다.
[43:28]
당신은 최고 수준의 블로그 포스트를
[43:29]
만드는 팀의 일원이며,
[43:33]
블로그 포스트 간의
[43:34]
내부 링크를 담당하고 있습니다.
[43:36]
각 블로그 포스트가 도착하면,
[43:37]
이전에 게시된 블로그들을 검토하여
[43:39]
최소 5개의 내부 링크를 만들어야 합니다.
[43:41]
최적의 내부 링크를 선택하기 위해
[43:42]
이전 블로그 포스트를 읽고
[43:44]
키워드를 검토해야 합니다.
[43:46]
관련성이 높지 않다면 링크하지 마세요.
[43:48]
그리고 제가 정확히 정의했죠.
[43:50]
내부 링크 기회를 어떻게 분석할지
[43:53]
그리고 현재 블로그 포스트도 제공했습니다.
[43:55]
이것이 우리가 현재 게시하는 내용이고
[43:57]
또한 이전 포스트들의
[43:58]
모든 정보를 제공했습니다.
[43:59]
모든 키워드, 요약, 블로그 제목을
[44:02]
모아서 제공했기 때문에
[44:04]
이전 포스트와 현재 포스트를 비교하여
[44:08]
어떻게 연결할 수 있는지 알 수 있죠.
[44:09]
이전 포스트와 현재 포스트를 보고
[44:11]
어떻게 연결할 수 있는지 파악합니다.
[44:13]
이제 실행해 보겠습니다만,
[44:14]
프롬프트의 중요한 부분이 하나 있는데,
[44:16]
AI 모델에게 이전 블로그 포스트는
[44:18]
반환하지 말고 현재 블로그 포스트에
[44:20]
내부 링크만 추가하라고 지시했습니다.
[44:23]
현재 블로그 포스트에 내부 링크만 추가하고
[44:25]
다른 정보는 변경하지 말라고 했죠.
[44:26]
정보를 추가하거나
[44:28]
삭제하지 말고
[44:29]
내부 링크 기회만
[44:31]
추가하라고 했습니다.
[44:33]
자, 보시면
[44:35]
여기 https로 시작하는 링크들이 있을 겁니다.
[44:38]
https
[44:39]
kx를 보면... 잠시 후에...
[44:44]
드디어 내부 링크를 찾았네요.
[44:46]
kx.a로 연결되는데, 이것은
[44:48]
'멀티에이전트 시스템 비즈니스 도입 2편'
[44:51]
이라는 블로그 포스트로 연결됩니다.
[44:54]
그리고 실제 블로그 포스트를 찾는데
[44:57]
2분 정도 스크롤해야 했던 이유는,
[44:59]
옆으로 스크롤해야 하는 것은 차치하고,
[45:01]
제가 AI 모델에게 특별히
[45:03]
내부 링크를 강제하지 말라고 했기 때문입니다.
[45:04]
이렇게 한 이유는
[45:06]
구글이 실제로 말하길,
[45:09]
관련성 없는 콘텐츠들을
[45:10]
무작정 링크로 연결하면
[45:12]
실제로 SEO에
[45:14]
도움이 되지 않고
[45:16]
많은 링크를 연결하려고
[45:17]
하는 것은 오히려 SEO를
[45:19]
해치게 됩니다.
[45:21]
그래서 실제로 연결되는 링크들이
[45:24]
정당한 것인지 확인하고
[45:25]
무작위로 내부 링크를 만들지 않도록 했습니다.
[45:27]
그래서 내부 링크가 많지 않은 것이죠.
[45:29]
계속 진행해 보겠습니다.
[45:31]
내부 링크가 정리되고
[45:33]
외부 링크도 정리되고
[45:34]
블로그 포스트가 작성되면
[45:36]
이제 작성된 마크다운 형식의
[45:38]
블로그 포스트를 HTML 형식으로 변환해야 합니다.
[45:42]
웹 페이지로 실제 게시할 수 있도록 말이죠.
[45:44]
예를 들어 이 블로그 포스트를 보면
[45:47]
단순한 마크다운 형식이 아닌
[45:48]
HTML 형식으로 되어 있습니다.
[45:51]
비전문가분들을 위해 설명드리면, HTML은
[45:53]
웹페이지를 만드는 프로그래밍 언어입니다.
[45:55]
프로그래밍 언어인데요
[45:57]
웹 페이지를 만드는 데 사용되는 언어입니다
[46:00]
하이퍼텍스트 마크업 언어라고 하는데
[46:02]
기본적으로 이것은
[46:04]
웹 페이지를 인터랙티브하게 만들고
[46:06]
멋지게 보이도록 해주죠
[46:08]
이 노트에서 말씀드린 대로 HTML로 변환할 건데
[46:10]
추론 모델도 사용하려고 합니다
[46:12]
저는 OpenAI의 프리뷰 버전을 사용했고
[46:15]
여기서 정의한 프롬프트가
[46:17]
실제로 매우 중요한데요
[46:19]
여러분이 사용하는 워드프레스
[46:21]
웹사이트 템플릿과
[46:22]
블로그 포스트 스타일에 따라 변경하실 수 있습니다
[46:25]
저는 기본적으로 블로그 포스트에
[46:27]
특정 요소들을 포함하도록 지정했는데
[46:29]
말씀드린 것처럼
[46:31]
주요 핵심 내용 섹션이나
[46:35]
예상 읽기 시간
[46:37]
목차를 넣고 싶었고
[46:39]
헤더와 서브헤딩의 형식을 지정하고
[46:41]
이런 식으로 원했습니다
[46:43]
출처는 하이퍼링크로 넣고 싶었는데
[46:45]
이건 제가 선호하는 블로그 포스트 스타일이에요
[46:48]
원하시면 변경하실 수 있고
[46:49]
원하는 대로 수정하실 수 있습니다
[46:51]
수정하고 싶으시다면
[46:52]
ChatGPT 인터페이스에서 직접 대화하시면서
[46:56]
이렇게 블로그 포스트가 보였으면 좋겠다고
[46:59]
말씀하시면 됩니다
[47:00]
템플릿이나 HTML 템플릿을
[47:03]
제공해달라고 하거나
[47:05]
마크다운을 HTML로 변환하는 프롬프트를
[47:07]
요청하시면 됩니다
[47:10]
혼란스럽지 않으셨길 바라고
[47:12]
계속 진행해보겠습니다
[47:14]
제가 말씀드린 대로
[47:15]
블로그 포스트에 포함하고 싶은 특정 지침들을 정의했어요
[47:18]
FAQ, 인용구, 볼드체 등등을 지정했고
[47:22]
기타 등등 요소들도 넣었습니다
[47:24]
그리고 정말 중요한 것은
[47:26]
대규모 언어 모델에
[47:28]
잘 포맷된 출력 예시를 제공했다는 점입니다
[47:31]
이것은 최종 HTML 출력이
[47:33]
어떻게 보여야 하는지에 대한 예시입니다
[47:36]
말씀드린 대로 이런 모습을 원했고
[47:38]
제가 독점하고 싶지 않아서
[47:40]
여러분께 정확한 프롬프트를 공유하고 싶었습니다
[47:42]
하지만 말씀드린 것처럼
[47:44]
제 블로그와 똑같이 만들고 싶지 않으시다면
[47:46]
ChatGPT의 도움을 받아
[47:48]
자유롭게 실험해보세요
[47:50]
2025년에는 정말로
[47:52]
코딩을 알 필요가 없습니다
[47:53]
프롬프트 작성법만 알면 되죠, 멋지지 않나요?
[47:56]
그리고 블로그 포스트에 대한
[47:57]
접근 권한도 제공했는데
[47:59]
이것이 특정 지침이고
[48:00]
HTML로 변환하고 싶은 블로그 포스트입니다
[48:03]
그리고 이것이 잘 포맷된 출력의 예시죠
[48:06]
좋습니다. 이제 이 단계를 테스트해보고
[48:08]
결과를 확인해볼까요? 다행히도
[48:10]
자동화를 실행할 때마다
[48:12]
계속 지켜보고 있을 필요는 없고
[48:14]
백엔드에서 실행되도록 할 수 있죠
[48:15]
만약 이렇게 앉아서
[48:16]
노드가 하나씩 실행되기를 기다려야 한다면
[48:18]
인생의 절반을 이걸 보면서
[48:21]
보내야 할 거예요, 이 테스트 원이 계속 돌고 돌고
[48:24]
영원히 돌고, 그게 바로 그 표현이죠
[48:29]
자, 어서 좀 끝나라... 드디어!
[48:33]
보시다시피 실행이 완료됐네요
[48:35]
보시다시피 출력이 나왔는데요,
[48:37]
블로그 포스트를 정의할 HTML 코드가
[48:40]
잔뜩 생성되었습니다.
[48:41]
이것이
[48:42]
어떻게 보일지는 지금은 읽어보지 않고
[48:44]
잠시 후에 확인해보겠습니다.
[48:46]
곧 보시게 될 거에요.
[48:48]
자, 이제 블로그 포스트의 HTML 버전이 있고
[48:50]
블로그 포스트의 슬러그를 정의해야 합니다.
[48:52]
혹시 슬러그가 무엇인지 모르시는 분들을 위해 설명하자면,
[48:54]
슬러그는 기본적으로
[48:56]
URL에서 여러분의 웹사이트 주소 뒤에 오는
[48:59]
부분을 말합니다.
[49:00]
예를 들어 'multi-agent-systems-business-adoption-2'와 같이
[49:03]
특정 URL이나
[49:05]
특정 블로그 포스트를 가리키는
[49:07]
주소가 되는 거죠.
[49:09]
기본적으로 GPT-4에게
[49:11]
슬러그를 만들어달라고 프롬프트를 작성했고,
[49:15]
SEO 목적으로 블로그 포스트의 주요 키워드를 사용하도록 했습니다.
[49:21]
이걸 실행하면
[49:23]
어떤 결과가 나오는지 보여드리겠습니다.
[49:26]
이 노드에 대해서는
[49:27]
자세히 설명할 필요가 없을 것 같네요.
[49:29]
'rise-of-multi-agent-systems-guide'가
[49:32]
슬러그로 생성되었습니다.
[49:35]
이게 https://domain.com/ 뒤에 붙게 되죠.
[49:37]
자, 이제 다음으로 넘어가서
[49:41]
포스트의 제목을 정의해야 합니다.
[49:43]
이건 실제 블로그 포스트의 제목이 될 거에요.
[49:45]
보시다시피 제목은
[49:47]
이렇게 나왔네요.
[49:48]
'멀티 에이전트 시스템:
[49:50]
비즈니스를 위한 AI 에이전트 확장 종합 가이드'
[49:52]
자, 이제 블로그 포스트 제목을 만들어야 하는데
[49:55]
이를 위해
[49:57]
주요 키워드를 사용하고
[49:59]
대규모 언어 모델에게
[50:01]
블로그 포스트 내용에 대한
[50:03]
접근 권한도 주었습니다.
[50:04]
포스트 내용을
[50:06]
파악할 수 있도록 말이죠. GPT-4를 사용했고
[50:08]
출력된 결과는
[50:10]
'멀티 에이전트 시스템의 부상:
[50:11]
기업을 위한 완벽 가이드'입니다.
[50:13]
이게 블로그 포스트의 제목이 되겠죠.
[50:15]
다음은 메타 설명인데
[50:17]
이것도 꽤 간단합니다.
[50:18]
기본적으로 블로그 포스트를 위한
[50:20]
메타 설명을 생성하게 됩니다.
[50:22]
그리고 이제 재미있는 부분이 나오는데
[50:24]
바로 이미지 컴포넌트입니다.
[50:27]
이게 실제로 하는 일은
[50:28]
블로그 최상단에 들어갈 이미지를
[50:31]
생성하거나 가져오는 것입니다.
[50:35]
반드시 이미지를 넣을 필요는 없지만
[50:37]
제가 보기에는
[50:38]
이미지가 없는 블로그 포스트는
[50:41]
마치 5살 아이가 쓴 것처럼 보입니다.
[50:43]
하지만 이미지가 있으면
[50:44]
훨씬 더 전문적으로 보이죠.
[50:46]
게다가 많은 사람들이
[50:48]
이런 이미지와 포맷팅이 있으면
[50:50]
AI가 전부 생성했다고
[50:52]
생각하지 않을 겁니다.
[50:53]
그래서 저는 반드시
[50:55]
이미지를 넣는 것을 추천드립니다.
[50:57]
이미지를 위해 HTTP 요청 노드를 사용했고
[51:01]
Surfer API를 활용했습니다.
[51:03]
Surfer API를 모르시는 분들은
[51:04]
구글에서 그냥 Surfer.ai.com을 검색하시면
[51:08]
바로 Surfer API로 이동할 수 있습니다.
[51:11]
Surfer API는 기본적으로 도구인데
[51:15]
이것은 실제 구글 인터페이스 대신 API를 사용해
[51:17]
구글 검색을 할 수 있게 해주는 도구입니다.
[51:19]
계정이 없다면 회원가입을 하시면 됩니다.
[51:22]
그러면 한 달에
[51:24]
100회 정도의
[51:25]
API 실행이 가능합니다.
[51:27]
매월 100번 무료로 API를 사용할 수 있는데,
[51:29]
이는 매우 관대한 제공량이죠.
[51:31]
새 계정을 만들거나 회원가입을 하고
[51:34]
필요한 API 키만 받으면 됩니다.
[51:35]
Surf API의 플레이그라운드로 돌아가보면
[51:37]
우리가 사용할 노드가 정확히 어떤 일을 하는지
[51:39]
보여줄 것입니다.
[51:41]
검색어를 정의하면
[51:43]
API는 실제 구글 검색과 동일하게 작동하여
[51:45]
검색을 수행하고
[51:47]
이미지 섹션으로 이동해
[51:48]
검색 결과에서 나온 이미지들의
[51:51]
정보를 가져옵니다.
[51:52]
예를 들어
[51:54]
'AI agents'를 검색하면
[51:55]
AI 에이전트와 관련된
[51:58]
이미지들이 나타날 것입니다.
[51:59]
자, 이렇게 AI 에이전트 관련 이미지들이 나왔네요.
[52:03]
우리 자동화에서는
[52:05]
이 이미지들 중 하나를 가져와서
[52:07]
블로그 포스트에 사용하려고 합니다.
[52:09]
다시 돌아와서 나머지 노드에 대해 설명하겠습니다.
[52:11]
GET 요청에서 쿼리 파라미터 전송을 활성화해야 합니다.
[52:13]
당연히 쿼리 파라미터를 보내야 하니까요.
[52:15]
첫 번째 파라미터는
[52:17]
실제 검색할 쿼리입니다.
[52:19]
파라미터 이름을 'Q'로 지정하고
[52:20]
값으로는 이전 노드에서 생성된
[52:22]
블로그 포스트의 제목을 넣습니다.
[52:23]
여기서는
[52:24]
'멀티 에이전트 시스템의 부상: 기업을 위한 완벽 가이드'
[52:26]
라는 제목으로 검색하게 됩니다.
[52:28]
그 다음으로 검색할 지역을
[52:30]
설정해야 합니다.
[52:32]
저는 미국으로 설정했는데,
[52:34]
GL(지리적 위치)에
[52:36]
US 또는 United States 값을 주면 됩니다.
[52:38]
목표 시장이 다른 곳이라면
[52:39]
이 값을 변경할 수 있습니다.
[52:41]
예를 들어 목표 시장이 호주라면
[52:45]
AU를 사용하면 될 것 같습니다.
[52:48]
정확한 국가 코드는
[52:50]
확인이 필요할 수 있습니다.
[52:51]
목표 시장에 맞게 변경하시면 됩니다.
[52:53]
각 국가의 정확한 코드를 알고 싶다면
[52:54]
Surf API의 문서를 확인하시면 됩니다.
[52:58]
문서가 매우 간단해서
[53:00]
각 국가의 코드를
[53:01]
쉽게 찾을 수 있습니다.
[53:03]
자, 이제 테스트해보고
[53:05]
어떤 결과가 나오는지 확인해볼까요?
[53:08]
여러 이미지의 정보가
[53:09]
반환되었네요.
[53:11]
추천 검색어는 신경 쓰지 않아도 됩니다.
[53:13]
우리가 필요한 건 이미지 결과입니다.
[53:15]
첫 번째 위치에 있는 이미지를 보면
[53:18]
여기 있네요. 이미지 정보들이 나왔습니다.
[53:20]
추천 검색어는 무시하고,
[53:23]
실제 이미지 결과만 봅시다.
[53:25]
첫 번째 순위에 있는
[53:27]
이미지를 클릭해서
[53:29]
원본을 보여드리겠습니다.
[53:30]
원본으로 가면
[53:33]
이미지를 보실 수 있을 겁니다.
[53:35]
자, 여기 있네요.
[53:38]
이게 첫 번째 이미지입니다.
[53:40]
첫 번째로 나온 것은 멀티 에이전트 시스템입니다.
[53:42]
이것은 Solu Lab에서 만든 것이고 여기에
[53:45]
좋은 다이어그램이 있네요.
[53:48]
자, 보시다시피 여러 이미지들이
[53:50]
나올 건데, 꽤 긴 목록이지만
[53:53]
나머지는 신경 쓰지 않으셔도 됩니다.
[53:54]
이미지들이 있으면 그중에서
[53:57]
하나만 선택하시면 되는데
[53:58]
제가 여기서 한 것이 바로 그겁니다.
[54:00]
여기 이미지 URL을 하나 지정했고
[54:03]
제가 선택한 이미지가 바로 이것인데
[54:05]
어떤 이미지인지 한번 볼까요
[54:07]
이 이미지는
[54:08]
멀티 에이전트 RAG 시스템의 사용자 프롬프트가
[54:12]
들어오는 방식을 보여주는 등의 내용이 있네요.
[54:14]
블로그 포스트에 쓰기에
[54:15]
충분히 좋은 이미지입니다. 이제 이것을 가지고
[54:18]
다음 단계로 넘어가서 실제로
[54:20]
워드프레스에 포스트를 작성할 건데
[54:22]
이 부분이 아마도 가장 중요합니다.
[54:24]
왜냐하면 당연히
[54:25]
실제 결과물을 볼 수 있기 때문이죠.
[54:28]
다행히도 n8n에는 이미 워드프레스와의
[54:30]
통합 기능이 미리 정의되어 있어서
[54:32]
HTTP 요청 노드를 만들 필요가 없습니다.
[54:34]
그게 아니었다면 큰 일이었을 텐데
[54:36]
워드프레스 API 문서가 꽤 혼란스럽거든요.
[54:39]
하지만 워드프레스 노드가 어떻게 생겼는지
[54:41]
빠르게 살펴보겠습니다.
[54:43]
워드프레스 계정에 연결해야 하는데
[54:45]
이게 좀 복잡합니다.
[54:46]
그래서 제가 바로
[54:48]
어떻게 하는지 보여드리겠습니다.
[54:49]
정확히 어떻게 하면 되는지
[54:51]
자, 제가 방금
[54:52]
제가 소유한 워드프레스 웹사이트 중
[54:54]
하나를 열었습니다.
[54:56]
먼저 해야 할 일은
[54:58]
사용자로
[54:59]
가서 실제 사용자를 클릭하는 겁니다.
[55:01]
사용자 페이지에 들어가면
[55:04]
맨 아래로 스크롤해서
[55:05]
'애플리케이션 비밀번호'라는
[55:06]
항목이 있습니다.
[55:09]
여기서 애플리케이션 비밀번호를
[55:10]
생성해야 합니다.
[55:12]
n8n을 워드프레스 계정에 연결하는 데
[55:14]
필요하거든요. 아무 이름이나
[55:15]
써주세요. 저는 n8n이라고
[55:18]
애플리케이션 비밀번호 이름을 지었고
[55:20]
n8n이라는 이름으로 새 애플리케이션 비밀번호를
[55:22]
추가하면
[55:24]
NRS a y 170 등등의 문자열이 생성됩니다.
[55:29]
이걸 복사하겠습니다. 물론 나중에
[55:31]
이 키는 변경할 거니까
[55:32]
제 API 키로 접근하려 하지 마세요.
[55:35]
이걸 복사한 다음에
[55:37]
자동화 페이지로 돌아오면
[55:39]
이런 화면이 보일 겁니다.
[55:41]
사용자명, 비밀번호, 워드프레스 URL을
[55:45]
입력하는 섹션이 있는데, 사용자명에는
[55:47]
사용자명을 입력하세요.
[55:48]
제 사용자명은
[55:50]
GM이에요. 아주 간단하죠.
[55:52]
그리고 비밀번호 란에는
[55:55]
방금 만든 애플리케이션 비밀번호를
[55:57]
붙여넣으세요.
[55:59]
여기 있는 이 문자열을 넣고
[56:01]
워드프레스 URL도 필요한데
[56:03]
실제 웹사이트 주소를 입력하세요.
[56:06]
예를 들어 제 경우에는
[56:08]
comma.ai가 되겠죠. 이게 전부예요.
[56:10]
https:// 를 입력하고
[56:13]
여기에 자신의 도메인을 입력하면 됩니다.
[56:15]
애플리케이션 비밀번호를 입력하고 그 위에
[56:17]
사용자 이름을 입력하시면 됩니다. 모든 정보를
[56:18]
입력하고 나면 저장 버튼을
[56:19]
클릭해서 워드프레스 웹사이트와 연결할 수 있습니다.
[56:22]
제 정보는 이게 아니라서
[56:24]
다른 정보를 입력하겠습니다.
[56:25]
자, 이렇게 하면 되겠네요.
[56:28]
저는 이미 연결을 했지만
[56:29]
워드프레스 연결 방법은
[56:30]
이런 식입니다. 여기서는
[56:32]
post 요청인지 확인하고
[56:34]
작업을 'create'로 설정해야
[56:36]
새 블로그 포스트를 생성할 수 있습니다.
[56:37]
그리고 나서 이전 노드의
[56:40]
정보를 채워넣으면 됩니다.
[56:41]
제목은 이전 노드에서 가져온
[56:44]
블로그 포스트의 제목이
[56:45]
될 것입니다.
[56:46]
이전 노드의 제목 관련
[56:48]
데이터를 사용하고, 작성자 이름은
[56:50]
여기서 목록에서 선택할 수 있습니다.
[56:52]
당연히 본인 이름을 작성자로 할 수도 있고
[56:54]
팀원 중 다른 사람을 지정할 수도
[56:56]
있습니다. 선택은 자유입니다.
[56:57]
이제 블로그 포스트의
[56:58]
실제 내용을 살펴보겠습니다.
[57:00]
이게 가장 중요한 부분이죠.
[57:02]
여기에 정확히 이 프롬프트를 설정해야 합니다.
[57:04]
제가 한 것은 블로그 포스트 본문 전에
[57:07]
커버 이미지를 정의했고
[57:09]
커버 이미지는 우리가 받은 이미지 URL을
[57:12]
참조하는 데이터 포인트로 지정했습니다.
[57:17]
기본적으로 이미지 URL을
[57:19]
상단에 배치한 것뿐입니다.
[57:21]
그게 제가 한 전부예요.
[57:22]
상단 이미지 다음에는
[57:24]
실제 포스트 내용을 넣었고
[57:27]
여기 중괄호가 하나 더 있네요.
[57:29]
이걸 제거하면... 자, 이렇게 간단합니다.
[57:31]
이렇게 하면 블로그 포스트가 생성되고
[57:33]
슬러그는 말씀드렸듯이
[57:35]
블로그 포스트의 URL이 됩니다.
[57:36]
그리고 상태 설정인데, 솔직히 말씀드리면
[57:39]
저는 제 블로그 포스트를 매우 신뢰하고
[57:41]
매번 게시 전에 읽어보고 싶지는 않아서
[57:42]
바로 발행으로 설정해 두었습니다.
[57:45]
직접 검토 과정 없이 바로 발행되도록 했는데
[57:47]
이 경우에는 사람의 개입이 없죠.
[57:49]
하지만 데모를 보여드리기 위해
[57:52]
초안으로 설정하겠습니다.
[57:53]
여러분이 사람의 검토를 원하신다면
[57:55]
그리고 확인하고 싶으시다면
[57:57]
처음 두세 번은
[57:58]
이렇게 하는 것이 좋습니다.
[57:59]
그 후에 완전히 만족하시면
[58:01]
바로 발행으로 설정하시면 됩니다.
[58:03]
일단 지금은 초안으로
[58:04]
설정해두겠습니다. 댓글 상태는
[58:06]
원하시는 대로 변경하실 수 있는데
[58:07]
저는 댓글 섹션을
[58:09]
열어두는 것을 선호하지 않습니다.
[58:11]
그리고 카테고리 이름과 태그 이름이 있는데
[58:13]
이것은 워드프레스의 기능으로
[58:15]
블로그 포스트에 태그를 달고
[58:18]
카테고리를 지정할 수 있게 해줍니다.
[58:21]
방문자들이 블로그 포스트를
[58:23]
더 쉽게 탐색할 수 있게 해주죠.
[58:24]
SEO에도 좋은 방법입니다.
[58:26]
저는 'AI agents'로 태그를 달았고
[58:29]
카테고리는 'automation'으로 설정했습니다.
[58:32]
템플릿과 관련해서는
[58:33]
엘리멘탈 템플릿을 선택했는데
[58:35]
여러분이 특정 템플릿이 있다면
[58:37]
드롭다운 메뉴에서 해당 템플릿을
[58:38]
찾아서 사용하면 됩니다. 아주 간단하죠.
[58:41]
이제 테스트해 보겠습니다. 이 노드가 하는 일은
[58:44]
블로그 포스트의 초안을 생성하는 것입니다.
[58:47]
잘 됐네요. 초안이 만들어졌습니다.
[58:49]
정말 잘 작동하는 것 같네요.
[58:52]
워드프레스 계정에 가서
[58:55]
블로그 결과물을 확인해보겠습니다.
[58:59]
좋습니다. '멀티 에이전트 시스템의 부상:'
[59:02]
기업을 위한 완벽 가이드
[59:05]
코삼이 오늘 작성한 포스트입니다.
[59:07]
상단에 이미지가 있고
[59:10]
커버 이미지가 있네요.
[59:12]
구글에서 찾은 이미지입니다.
[59:13]
'멀티 에이전트 시스템의 부상:
[59:15]
기업을 위한 완벽 가이드'
[59:17]
이번에는 12분이 걸렸네요.
[59:18]
주요 내용 요약과 목차가 있습니다.
[59:20]
와, 목차가 꽤 길군요.
[59:22]
클릭하면 해당 섹션으로 이동할 수 있고
[59:24]
출처도 포함되어 있습니다.
[59:27]
출처는 외부 링크나
[59:29]
내부 링크로 연결됩니다.
[59:30]
이건 IBM으로 연결되는 외부 링크네요.
[59:32]
내부 링크도
[59:34]
여기 있을 것 같은데
[59:37]
한번 찾아볼까요?
[59:39]
이게 내부 링크인가요?
[59:42]
아니네요. 이건 어떨까요?
[59:45]
내부 링크?
[59:50]
네, 맞습니다. 이건 내부 링크네요.
[59:53]
제가 작성한 다른 블로그 포스트로 연결됩니다.
[59:54]
아주 좋습니다.
[59:57]
나머지 블로그 포스트도
[59:59]
보기 좋게 잘 만들어졌네요.
[01:00:03]
'휴먼 인 더 루프 vs 완전 자동화 프로세스'
[01:00:05]
정말 중요한 주제입니다.
[01:00:07]
보통은 휴먼 인 더 루프를
[01:00:09]
추천하는 편인데
[01:00:11]
이번에는 솔직히 신경 쓰지 않아도 될 것 같아서
[01:00:13]
완전 자동화로 진행했습니다.
[01:00:14]
미래 트렌드,
[01:00:16]
결론, 자주 묻는 질문까지
[01:00:18]
항상 하던 대로 포함되어 있고
[01:00:20]
아주 잘 작성된 블로그 포스트가 완성됐네요.
[01:00:23]
사실 이 정도 수준의
[01:00:24]
깔끔하고 기능이 많은 블로그 포스트를
[01:00:26]
만들려면
[01:00:27]
SEO 회사에 최소 월 2,000달러는
[01:00:31]
지불해야 할 겁니다. 최소한요.
[01:00:33]
하지만 보시다시피 우리는 이 모든 것을 100% 자동화했습니다.
[01:00:36]
그리고 제가 사용하는
[01:00:38]
자동화 템플릿을 그대로
[01:00:40]
아래 설명란에 공유해 드립니다.
[01:00:43]
다운로드하시면 월 2,000달러를 절약하면서
[01:00:45]
SEO 캠페인의 혜택을
[01:00:47]
그대로 누리실 수 있습니다.
[01:00:49]
좋습니다. 이제
[01:00:51]
블로그 포스트의 마지막 부분에서
[01:00:53]
두 가지만 더 하면 됩니다.
[01:00:55]
첫 번째로 초기 엑셀 시트로 돌아가서
[01:00:57]
두 번째 블로그 포스트를
[01:00:59]
완료했다고 표시해야 합니다.
[01:01:02]
이 노드가 바로 그 작업을 수행합니다.
[01:01:03]
방금 게시한 특정 행을 찾아
[01:01:05]
해당 클러스터에 대해
[01:01:07]
게시한 포스트를 찾고
[01:01:08]
완료 섹션을 '예'로 변경합니다.
[01:01:11]
좋습니다. 이제 마지막으로
[01:01:14]
방금 게시한 새 블로그 포스트를
[01:01:16]
완료된 키워드 엑셀 시트에
[01:01:18]
추가하면 됩니다.
[01:01:21]
이렇게 하면 또 하나의
[01:01:22]
우리가 작성한 블로그가 게시될 것이고
[01:01:24]
여기 40번에 표시될 텐데, 사실 저는
[01:01:26]
블로그를 게시하지 않을 것이기 때문에
[01:01:27]
이 작업을 하지 않을 거예요. 하지만 40번에
[01:01:29]
표시되고 제가 말씀드린 대로 채워질 거예요
[01:01:31]
제목, 키워드, 요약, 그리고
[01:01:34]
링크까지요. 이렇게 하면 앞으로
[01:01:37]
새로운 블로그를 게시할 때마다
[01:01:38]
계속해서 다른 블로그들을 게시하면
[01:01:40]
이 블로그에도 내부 링크가 걸리게 됩니다
[01:01:42]
엑셀 시트에 저장되어 있기 때문에
[01:01:43]
나중에 다시 링크를 걸 수 있죠
[01:01:45]
이해가 되시나요? 말씀드린 대로
[01:01:47]
이 노드는 실행하지 않을 건데
[01:01:49]
여러분이 여기서 변경해야 할
[01:01:50]
유일한 것은 URL입니다
[01:01:53]
제 실제 웹사이트 도메인인 commect.ai를
[01:01:56]
그리고 슬러그는 유지하고 싶으실 거예요
[01:01:58]
슬러그는 동일하게 유지하고
[01:02:00]
슬러그를 생성한 노드를 가리키되
[01:02:01]
이 kx.ai 부분만 변경하시면 됩니다
[01:02:03]
여러분의 URL로 바꾸시면 되요
[01:02:06]
이것으로 클러스터 SEO 포스트를 위한
[01:02:08]
자동화가 끝났습니다
[01:02:10]
이제 두 번째 유형의 SEO 포스트인
[01:02:12]
트렌드 SEO 포스트로 넘어가보겠습니다
[01:02:15]
두 번째 유형의 포스트는
[01:02:16]
트렌드 포스트가 될 거예요
[01:02:18]
전에 설명드린 것처럼
[01:02:20]
트렌드 포스트는 새로운 정보나
[01:02:22]
트렌디한 키워드를 포착해서
[01:02:24]
그것에 대해 포스팅하는 것입니다
[01:02:27]
대부분의 경우 이는 뉴스가 될 것이고
[01:02:28]
사실 이 두 번째 자동화는
[01:02:30]
모든 사람에게 적용되지는 않습니다
[01:02:33]
특히 매주 새로운 소식이 없는
[01:02:35]
산업에 계신다면, 그리고
[01:02:36]
지난 2년이나 3년 또는
[01:02:38]
5년 동안 변화가 없었다면
[01:02:40]
이것이 꼭 필요하지는 않을 것 같습니다
[01:02:42]
하지만 말씀드렸듯이, 이는
[01:02:44]
새로운 키워드나 발전 사항을
[01:02:46]
포착하고 블로그에
[01:02:48]
포스팅하는 방법입니다
[01:02:50]
이는 SEO에 많은 도움이 된다고 생각합니다
[01:02:52]
이제 자동화 과정을 살펴보겠습니다
[01:02:54]
말씀드린 대로 모든 자동화에는
[01:02:55]
트리거가 필요합니다
[01:02:57]
특정 시점에 자동화를 시작하기 위해서죠
[01:02:59]
우리는 스케줄 트리거를 사용할 건데
[01:03:01]
주기적으로 매주 또는 2주마다
[01:03:03]
포스팅하기를 원하기 때문입니다
[01:03:05]
이를 정의하는 방법은
[01:03:08]
이 Cron 표현식을 사용하는 거예요
[01:03:10]
084를 사용할 수 있는데
[01:03:12]
이는 매주 4일차 오전 8시를 의미하며
[01:03:15]
원하는 대로 변경할 수 있습니다
[01:03:16]
이미 설명드렸으니 넘어가겠습니다
[01:03:19]
트렌드에 대해 포스팅할 때
[01:03:21]
가장 먼저 해야 할 일은
[01:03:22]
그 트렌드가 무엇인지 찾는 것입니다
[01:03:24]
이를 위해 HTTP 요청 노드를 사용했는데
[01:03:26]
이것도 이전 클러스터 자동화처럼
[01:03:28]
Serpapi를 호출할 것입니다
[01:03:31]
Serpapi는 구글 검색뿐만 아니라
[01:03:33]
구글 트렌드도 검색할 수 있게 해줍니다
[01:03:36]
구글 트렌드를 모르시는 분들은
[01:03:37]
구글에서 Google Trends를
[01:03:39]
검색하시면 됩니다
[01:03:40]
그리고 첫 번째 결과를 클릭하시면
[01:03:42]
구글 트렌드로 이동하실 수 있습니다
[01:03:44]
첫 번째 결과를 클릭하시면 됩니다
[01:03:46]
구글 트렌드에 들어가면
[01:03:48]
구글 트렌드 안에서
[01:03:50]
정말 유용한 도구를 만나실 수 있는데요
[01:03:52]
특히 콘텐츠를 만드시는 분들에게
[01:03:53]
구글과 유튜브에서 일어나는
[01:03:56]
트렌드를 파악할 수 있게 해줍니다
[01:03:59]
탐색 섹션으로 빠르게 이동해보면
[01:04:01]
이 탐색 섹션에서
[01:04:03]
트렌드를 찾아볼 수 있고
[01:04:05]
우리가 Sur API를 통해
[01:04:07]
사용하게 될 부분이기도 합니다
[01:04:11]
탐색 섹션에서는 기본적으로
[01:04:13]
특정 키워드나 관련 키워드의
[01:04:15]
시간에 따른 검색량을
[01:04:18]
추적할 수 있습니다. 예를 들어
[01:04:20]
'AI agents'를 검색하고
[01:04:22]
검색 지역을 미국으로 설정한 다음
[01:04:25]
미국으로 설정하고
[01:04:28]
지난 12개월이 아닌
[01:04:31]
빠르게 보여드리기 위해
[01:04:33]
지난 12개월로 보면
[01:04:35]
보시다시피 6월에는
[01:04:37]
AI 에이전트 검색이 거의 없었고
[01:04:40]
8월, 11월까지도 마찬가지였다가
[01:04:42]
갑자기 1월 즈음에
[01:04:44]
큰 상승이 있었죠
[01:04:46]
확실히 트렌디한 주제입니다만
[01:04:49]
지난 12개월에서
[01:04:50]
지난 7일로 바꿔보겠습니다
[01:04:52]
지난해가 아닌 현재 트렌드를
[01:04:53]
포스팅하고 싶기 때문이죠
[01:04:56]
이렇게 변화가 보이고
[01:04:58]
트렌드를 추적할 영역도
[01:05:00]
정할 수 있습니다. 웹 검색은
[01:05:02]
웹에서 얼마나 많은 사람들이
[01:05:05]
검색했는지를 추적하고
[01:05:07]
뉴스 검색은 뉴스에서의 검색량
[01:05:09]
유튜브 검색은 유튜브에서
[01:05:11]
얼마나 많이 검색했는지를 보여줍니다
[01:05:13]
유튜브를 보면
[01:05:15]
지난 7일 동안은
[01:05:17]
AI 에이전트가 꾸준했지만
[01:05:18]
지난 12개월로 보면
[01:05:20]
엄청난 상승이 있었죠
[01:05:23]
다시 구글 검색으로 돌아가서
[01:05:25]
웹 검색을 보면
[01:05:26]
AI 에이전트, 미국, 지난 7일로 설정하고
[01:05:29]
웹 검색에서 아래로 내려가보면
[01:05:31]
여기 관련 검색어가 나오는데
[01:05:33]
이것은 기본적으로
[01:05:34]
AI 에이전트와 관련된
[01:05:36]
검색어나 키워드 중에서
[01:05:38]
검색량이 가장 많이 증가한
[01:05:42]
키워드를 보여줍니다
[01:05:45]
어떤 것이 트렌드인지 알 수 있죠
[01:05:49]
AI 에이전트와 관련해서 보면
[01:05:51]
현재 가장 트렌드인 것은
[01:05:52]
OpenAI Deep Research입니다
[01:05:54]
이건 당연한게
[01:05:56]
2-3일 전에 출시된
[01:05:59]
꽤 멋진 도구거든요. 한번 확인해보세요
[01:06:01]
OpenAI Deep Research가
[01:06:04]
가장 트렌디한 키워드이고
[01:06:06]
두 번째는 FBI 에이전트인데
[01:06:09]
우리가 찾는 것과는
[01:06:11]
좀 관련이 없네요. 그 다음으로
[01:06:13]
11 Labs, Flow Y, AI 보이스 에이전트가 있습니다
[01:06:17]
자 이제
[01:06:19]
자동화로 돌아가보면
[01:06:21]
Sur API에 연결하고
[01:06:22]
이전과 동일한 프로세스로
[01:06:23]
인증을 진행하면 됩니다
[01:06:25]
URL에서
[01:06:26]
엔진을 사용하도록 설정만 하면 됩니다
[01:06:29]
구글 트렌드를 통해 검색하고 있습니다.
[01:06:30]
트렌드와 이미지들을 검색하고 있고,
[01:06:33]
이전과 동일한 방식으로 다시 연결하셔야 합니다.
[01:06:34]
쿼리 매개변수를 보내야 하는데,
[01:06:36]
Q는 실제로 검색하고자 하는
[01:06:38]
트렌드 검색어를 의미합니다.
[01:06:40]
저는 AI 에이전트로 설정했는데,
[01:06:42]
AI 에이전트로 순위를 올리고 싶기 때문입니다.
[01:06:44]
사실 제 비즈니스는
[01:06:46]
자동화와 AI 에이전트를 중심으로 돌아가고 있고,
[01:06:48]
SEO 게시물을 통해 제가 목표로 하는 것은
[01:06:51]
AI 에이전트 검색어에서
[01:06:53]
1위로 노출되는 것입니다.
[01:06:55]
누군가 AI 에이전트를 검색했을 때 제가 첫 번째로 나오게 하는 것이죠.
[01:06:58]
여러분의 제품이나 서비스가 무엇이든,
[01:07:00]
예를 들어 잔디 깎기 회사라면
[01:07:02]
잔디를 키워드로 할 수 있겠죠.
[01:07:05]
치과 의사라면
[01:07:07]
음...
[01:07:09]
치과 서비스 같은 것을 사용할 수 있겠죠.
[01:07:12]
맞습니다. 여러분의
[01:07:13]
제품이나 서비스와 관련된 것이어야 하죠.
[01:07:15]
SEO 측면에서 순위를 올리고 싶은
[01:07:16]
주요 키워드가 되는 거죠.
[01:07:19]
그리고 지리적 위치는
[01:07:21]
미국으로 설정했고,
[01:07:23]
트렌드에서 사용할 언어는
[01:07:26]
영어로 설정했습니다.
[01:07:28]
그리고 마지막 섹션에서는
[01:07:29]
어떤 시간 프레임을 볼지 정의합니다.
[01:07:31]
이전에 보셨듯이
[01:07:33]
지난 5일이나
[01:07:34]
12개월, 2년, 5년 등
[01:07:36]
원하는 기간을 설정할 수 있습니다.
[01:07:38]
이 섹션에서는 사용자 지정 간격을 정의합니다.
[01:07:41]
얼마나 과거의 트렌드를 볼 것인지
[01:07:43]
설정하는 것이죠.
[01:07:46]
저는 지난 3일로 설정했습니다.
[01:07:50]
오늘이 2월 6일이니까
[01:07:52]
2월 3일부터 2월 6일까지
[01:07:53]
보게 될 거예요.
[01:07:56]
최근 3일을 보는 것이 좋은 이유는
[01:07:57]
지금 당장 트렌드인 것들을
[01:07:59]
잡아낼 수 있기 때문입니다.
[01:08:00]
지난 주를 보면
[01:08:02]
지난 주에는 트렌드였을 수 있지만
[01:08:04]
이번 주에는 이미 구식이 되어
[01:08:06]
포스팅할 가치가 없을 수 있죠.
[01:08:08]
정말 빠르게 대응하고 싶다면
[01:08:09]
하루만 설정할 수도 있습니다.
[01:08:11]
이건 여러분의 선택입니다.
[01:08:13]
그 다음으로 보낼 쿼리는
[01:08:15]
트렌드로부터 받고 싶은
[01:08:17]
데이터 유형을 정의하는 것입니다.
[01:08:19]
저는 연관 쿼리를 찾고 싶은데요.
[01:08:21]
잠깐 뒤로 가보면
[01:08:23]
구글 트렌드 API가
[01:08:26]
또는 Serp API가 제공하는 것은
[01:08:28]
두 가지인데요.
[01:08:29]
연관 주제와 연관 쿼리입니다.
[01:08:31]
연관 주제는 너무 광범위해서
[01:08:33]
우리 용도에는 맞지 않습니다.
[01:08:35]
그래서 연관 쿼리만 받으려고 하는데,
[01:08:36]
이것이 바로 블로그 포스트를 작성할
[01:08:38]
키워드가 될 것입니다.
[01:08:40]
데이터 유형을 연관 쿼리로 정의하고,
[01:08:42]
다른 것들은 그대로 두면 됩니다.
[01:08:44]
이제 실행하면
[01:08:46]
트렌드 키워드를 볼 수 있을 텐데...
[01:08:52]
아, 문제가 생겼네요.
[01:08:54]
제가 검색어를 지워버린 것이 문제였습니다.
[01:08:58]
검색어를 AI 에이전트로
[01:09:01]
다시 해보겠습니다.
[01:09:03]
그래서 이번에는 확실히 작동할 것 같은데요
[01:09:06]
좋습니다. 이제 됐네요. 이게 바로
[01:09:09]
SERP API의 결과입니다. 발음하기가 좀 어색하네요
[01:09:13]
하지만
[01:09:15]
보시다시피 상승 중인 연관 검색어 중
[01:09:18]
1위는 현재 'origami agents'이고
[01:09:20]
2위는 'OpenAI deep research'로
[01:09:23]
다른 곳에서도 봤던 키워드입니다
[01:09:26]
'origami agents'는 완전히 새로운 키워드네요
[01:09:28]
그 외에는 이미 알려진 트렌드 키워드들입니다
[01:09:30]
다음 섹션에서는
[01:09:32]
가장 트렌드인 두 키워드를 추출했는데요
[01:09:35]
API가 보통 5개나 10개 정도의 키워드를 제공하지만
[01:09:38]
저는 JSON 포맷을 정의해서
[01:09:40]
상위 1, 2위 키워드만 받아오도록 했습니다
[01:09:41]
이렇게 가장 트렌드인
[01:09:44]
첫 번째와 두 번째 키워드만 받아오도록 설정했어요
[01:09:47]
1위는 'origami agents'로
[01:09:49]
스코어가 3,850입니다
[01:09:51]
이는
[01:09:52]
최근 3일간의 증가율을 나타내는 것 같은데요
[01:09:55]
지난 3일 동안
[01:09:56]
무려
[01:09:58]
38,050% 검색량이 증가했다는 의미입니다
[01:10:01]
그리고 'OpenAI research'는 35,700%가 증가했네요
[01:10:04]
한 가지 더 빠르게 보여드리고 싶은 게 있는데요
[01:10:07]
연관 검색어를 찾는 두 가지 방식이 있습니다
[01:10:09]
첫 번째는 상승률 기준이고
[01:10:11]
이는 최근 검색량이 얼마나 증가했는지를 보는 것으로
[01:10:13]
실제 트렌드를 파악하는 데 도움이 됩니다
[01:10:16]
최근 얼마나 검색량이 늘었는지를 보여주죠
[01:10:18]
이게 실제 트렌드를 잡아내는 방법인데요
[01:10:21]
또는 상위 검색어로 찾을 수 있습니다
[01:10:23]
지난 3일 동안 검색량이 가장 많았던 키워드들이죠
[01:10:28]
AI 에이전트나 처음에 입력한 검색어와 관련해서
[01:10:30]
상위 연관 검색어들은
[01:10:32]
반드시 트렌드를 반영하는 것은 아닙니다
[01:10:36]
왜냐하면 'agents in AI'나
[01:10:38]
'AI agent' 또는 'what are agents'같은 검색어는
[01:10:41]
사실 사람들이 늘 검색하는 것이지
[01:10:43]
최근 3일에만 국한된 게 아니거든요
[01:10:45]
그래서 이런 키워드로 블로그를 작성하진 않고
[01:10:47]
상승세에 있는 키워드로 작성합니다
[01:10:49]
하지만 이런 일반적인 키워드들도
[01:10:51]
검색량이 매우 높기 때문에
[01:10:53]
블로그 포스트 여러 곳에
[01:10:55]
이런 키워드들을 포함시키는 것이 좋습니다
[01:10:58]
이런 키워드로도 순위를 얻을 수 있도록요
[01:11:00]
그래서 두 번째 노드에서
[01:11:01]
제가 한 일이 바로 이거예요
[01:11:03]
자바스크립트 코드로
[01:11:04]
모든 상위 키워드를 가져와서
[01:11:06]
하나의 문자열로 만들었습니다
[01:11:09]
코드는 모든 상위 키워드를 가져와서
[01:11:11]
'agents in AI', 'AI agents'
[01:11:14]
'what are agents', 'what are AI agents'
[01:11:16]
'what is AI agents', 'best AI agents' 등
[01:11:19]
이런 식으로요
[01:11:21]
상위 키워드들을 콤마로 구분해서
[01:11:23]
하나의 문자열로 만듭니다
[01:11:25]
나중에 블로그 포스트에서 활용하기 위해서죠
[01:11:29]
자, 이제 다음 노드를 보시면
[01:11:32]
대규모 언어 모델 노드가 있는데
[01:11:33]
여기서는 Claude-1을 사용했습니다
[01:11:35]
한번 실행해볼까요? 가끔은 계속 처리 중인 상태로 머물 때도 있지만
[01:11:39]
실행이 잘 되면
[01:11:40]
계속 돌고 도는 경우가 있어서요
[01:11:42]
하지만 Claude-1을 사용할 수 있다면
[01:11:45]
꼭 사용하시길 추천드립니다
[01:11:47]
정말 훌륭한 모델이거든요
[01:11:49]
이제 빠르게
[01:11:51]
Claude-1에 어떤 프롬프트를 주었는지 보여드리겠습니다
[01:11:53]
기본적으로 Claude-1에게
[01:11:55]
키워드 중 하나를 선택하라고 지시했습니다
[01:11:58]
우리가 블로그 포스트를 작성할 수 있도록 상위 두 개의 트렌딩 키워드 중에서
[01:12:00]
하나를 선택하려고 합니다. 먼저
[01:12:02]
프롬프트에서 설명하기를, 당신은
[01:12:04]
세계적 수준의 블로그 포스트를 작성하는 팀의 일원이며
[01:12:06]
이 블로그 포스트들은 AI와 자동화
[01:12:08]
에이전시인 Kexa의 웹사이트에 게시됩니다.
[01:12:09]
Kexa는 AI 에이전트 구축에 중점을 두고 있고
[01:12:11]
AI 직원들과 자동화 시스템을 만드는데
[01:12:14]
블로그 포스트는 주로 SEO 캠페인의 일환으로
[01:12:16]
게시되어 제품과 서비스의 순위를 높이기 위한 것입니다.
[01:12:18]
기본적으로 제 비즈니스가 무엇이고
[01:12:20]
제품과 서비스가 무엇인지 정확히 설명했습니다
[01:12:21]
그래서 기본적으로 두 개의 키워드에 대한
[01:12:23]
정보를 제공했고
[01:12:25]
이전에 추출한
[01:12:26]
상위 두 개의 트렌딩 키워드와 관련된
[01:12:27]
정보를 제공했습니다
[01:12:30]
기본적으로 두 가지 속성이 있는데
[01:12:31]
하나는 실제 키워드 자체인 쿼리이고
[01:12:33]
다른 하나는 최근 얼마나 증가했는지를 나타내는
[01:12:35]
점수입니다
[01:12:37]
그리고 여러 요소들을 기반으로
[01:12:39]
이 중 하나를 선택하도록 했습니다
[01:12:41]
물론 이것을 여러분의 비즈니스에 맞게 변경할 수 있습니다
[01:12:43]
제 비즈니스와 관련된 키워드를
[01:12:45]
선택하고 싶지 않을 수 있으니
[01:12:47]
프롬프트의 이 부분을 자유롭게
[01:12:48]
수정하시기 바랍니다
[01:12:50]
그리고 제 회사 이름이 있는 이 부분도
[01:12:52]
수정하시고
[01:12:53]
두 개의 키워드만 입력하도록
[01:12:55]
하면 됩니다. 키워드 1번과
[01:12:56]
키워드 2번을 입력하세요
[01:12:58]
이것이 최종 결과물이 될 것입니다
[01:12:59]
보시다시피 DeepSearch가 성공적으로 실행되었고
[01:13:02]
선택된 키워드는 '오리가미 에이전트'입니다
[01:13:04]
이게 실제로 존재하는 것인지는 모르겠네요
[01:13:06]
오리가미 에이전트가 무엇인지 한번 찾아보겠습니다
[01:13:09]
제가 오리가미 에이전트가
[01:13:11]
실제 종이접기 관련된 것인지
[01:13:13]
알아보겠습니다
[01:13:17]
오 좋네요! 실제로 존재하는 새로운 애플리케이션이네요
[01:13:20]
저는 오리가미 에이전트가 실제 종이접기를
[01:13:22]
의미하는 줄 알았는데, 잘 작동하고 있네요
[01:13:25]
좋습니다. 이제 블로그 포스트의 주제를 선택했고
[01:13:27]
다른 블로그 포스트에서 했던 것과
[01:13:29]
동일한 과정을 거칠 건데요
[01:13:31]
리서치 노드를 사용할 것이고
[01:13:33]
당연히 여기서도 Perplexity를 사용할 겁니다
[01:13:35]
다시 한 번 설명하지는 않겠지만
[01:13:37]
Sona Pro를 사용하고
[01:13:38]
이 쿼리를 전송해야 합니다
[01:13:39]
다음 주제를 연구하고 관련된 모든 정보를
[01:13:43]
리턴하도록 하는 거죠
[01:13:45]
자 실행해보겠습니다
[01:13:47]
보시다시피 10개의 인용문과
[01:13:50]
Perplexity에서 얻은 연구 결과가 나왔습니다
[01:13:53]
좋습니다. 이제 실제 연구 결과가 나왔으니
[01:13:55]
이전처럼 링크들도 수정해야 합니다
[01:13:57]
기본적으로 이 작업을 통해
[01:14:00]
내부 링크로 사용할 https 소스들을
[01:14:01]
인덱스 인용과 함께 얻을 수 있습니다
[01:14:04]
그리고 나서 실제 작성자 컴포넌트가 있는데
[01:14:06]
이것은 블로그 포스트를 실제로 작성할
[01:14:10]
대규모 언어 모델 노드입니다
[01:14:12]
제가 말씀드렸듯이 저는 Claude-2-Sonnet을 선호하지만
[01:14:14]
여러분이 원하는 다른 모델을 사용하셔도 됩니다
[01:14:17]
프롬프트는 여기 있는 이것을 사용했고
[01:14:19]
실제로 블로그 포스트를 작성할
[01:14:21]
언어 모델 노드를 설정했습니다
[01:14:23]
제가 말씀드린 대로 Claude-2-Sonnet을 사용하지만
[01:14:25]
원하는 다른 모델을 사용하셔도 됩니다
[01:14:27]
프롬프트는 이런 식으로 작성했는데
[01:14:29]
입력 정보로 쿼리와
[01:14:31]
다른 키워드들,
[01:14:32]
그리고 complexity 노드에서 나온 연구 결과를 전달했습니다.
[01:14:34]
그리고 블로그 포스트의 구조에 대해
[01:14:37]
어떤 정보를 포함할지
[01:14:38]
구체적으로 설명했습니다.
[01:14:41]
기본적으로 블로그 포스트에 어떤 정보를 담을지
[01:14:43]
지정했는데요.
[01:14:45]
전문가 수준의 콘텐츠로
[01:14:47]
최소 1,500에서 2,000 단어 길이로 작성하도록 했습니다.
[01:14:50]
여러분에게 이 프롬프트를
[01:14:51]
그대로 공유해 드릴 예정이니
[01:14:53]
스크린샷을 찍으실 필요는 없습니다.
[01:14:54]
기본적으로 주제나
[01:14:56]
가장 트렌딩한 키워드를
[01:14:58]
쿼리로 입력했고
[01:15:00]
또한 자세한 연구 결과도
[01:15:02]
perplexity에서 얻은 내용을 포함했습니다.
[01:15:04]
이제 실행해 보겠습니다.
[01:15:06]
시간이 좀 걸릴 텐데요,
[01:15:08]
GPT-3.5를 open router를 통해 호출하고
[01:15:11]
복잡한 작업이라 그렇습니다.
[01:15:13]
자, 블로그 포스트가 완성되었네요.
[01:15:17]
제목은 '오리가미 에이전트:
[01:15:18]
AI 기반 영업 혁명'
[01:15:21]
리드 제너레이션의 변화입니다.
[01:15:23]
꽤 괜찮네요.
[01:15:25]
그들의 웹사이트에서 다루는 내용과도
[01:15:26]
잘 맞아떨어집니다. 오리가미 에이전트, 리드 제너레이션 등등.
[01:15:30]
이제 블로그 포스트가 완성되었고
[01:15:32]
이 섹션에서는 이전처럼
[01:15:35]
자세히 설명하지는 않겠지만
[01:15:36]
이전 블로그들을 가져와서
[01:15:38]
통합할 예정입니다.
[01:15:40]
그러면 이런 식으로
[01:15:42]
이전 포스트들에 대한 정보가 나타날 텐데요.
[01:15:45]
블로그 제목, 키워드,
[01:15:47]
요약본과
[01:15:49]
지금까지 게시한 각 블로그의 URL이 포함됩니다.
[01:15:52]
이를 통해 앞서 언급했던
[01:15:54]
내부 링크 작업을
[01:15:56]
진행할 수 있죠.
[01:15:58]
그리고 이전처럼
[01:16:00]
내부 링크를 처리하는
[01:16:02]
노드가 있을 겁니다. 프롬프트는 이전과 비슷한데요,
[01:16:06]
현재 블로그 포스트와
[01:16:08]
이전 블로그 포스트를
[01:16:10]
아래에 넣고 llama-2를 사용합니다.
[01:16:12]
말씀드렸듯이
[01:16:13]
추론 모델을 사용해야 하는데
[01:16:15]
약간의 사고가 필요하기 때문입니다.
[01:16:17]
이제 결과를 확인해 보겠습니다.
[01:16:19]
이 결과물에는 comma.ai로의 링크나
[01:16:22]
내부 링크도 포함되어 있어야 합니다. 잘됐네요.
[01:16:26]
이제 이 블로그 포스트를
[01:16:29]
HTML로 변환하면 되는데
[01:16:30]
이전에 설명했던 대로입니다.
[01:16:32]
HTML 버전이 완성되면
[01:16:35]
포스트의 슬러그, 제목,
[01:16:37]
메타 설명을 정의하고
[01:16:40]
이전에 보여드린 것처럼
[01:16:42]
상단에 들어갈 이미지도
[01:16:44]
가져와야 합니다.
[01:16:46]
이전 자동화와 완전히 동일하니
[01:16:49]
자세히 설명하지는 않겠습니다.
[01:16:50]
마지막으로
[01:16:51]
워드프레스에 게시하면 되는데
[01:16:53]
임시저장으로 설정하고
[01:16:56]
최종 결과를 보여드리겠습니다.
[01:16:58]
임시저장으로 바꾸고 실행하면
[01:17:02]
자, 이제 임시저장 글이 생성되었고
[01:17:05]
실제 블로그 포스트가 보이시죠.
[01:17:08]
오리가미라는 제목의 블로그 포스트가
[01:17:10]
성공적으로 생성되었습니다.
[01:17:12]
AI를 활용한 영업 혁신에 대한 오리가미
[01:17:14]
에이전트에 대한 글이 있고, 상단에는
[01:17:16]
추출된 작은 이미지가 있습니다
[01:17:18]
제목과 예상 읽기 시간이 있고
[01:17:20]
주요 핵심 내용과 목차가 있으며
[01:17:23]
제목, 부제목, 텍스트 인용이 링크되어 있고
[01:17:26]
마지막에는 자주 묻는 질문도 포함되어 있습니다
[01:17:30]
이제 워드프레스에 게시했으니
[01:17:32]
이전에 했던 것처럼
[01:17:35]
새로 작성한 블로그를
[01:17:37]
완료된 키워드 섹션 또는
[01:17:40]
완료된 블로그 엑셀 시트에
[01:17:42]
추가하기만 하면 됩니다
[01:17:47]
이 노드를 통해 처리되는데
[01:17:49]
여기서 변경해야 할 유일한 것은
[01:17:50]
comma.ai를 여러분의 URL로
[01:17:53]
변경하는 것입니다. 여러분의 URL이 무엇이든
[01:17:56]
yoururl.com으로 바꾸면 됩니다
[01:17:59]
저는 실제로 이 블로그를 게시하거나
[01:18:00]
엑셀 시트에 잘못된 데이터를
[01:18:02]
생성하고 싶지 않기 때문에 실행하지 않을 것입니다
[01:18:05]
하지만 여러분은 할 수 있고
[01:18:06]
정말 이게 전부입니다. 이렇게 쉽습니다
[01:18:08]
SEO 에이전시에 매달 2,000달러, 3,000달러
[01:18:11]
심지어 5,000달러를 지불할 필요가 전혀 없습니다
[01:18:13]
블로그 운영을 위해서는 제가 제공한 템플릿을
[01:18:16]
다운로드하여 워크플로우에 업로드하고
[01:18:18]
약간만 수정한 다음 자격 증명을
[01:18:20]
입력하기만 하면 됩니다
[01:18:21]
그러면 바로 SEO 캠페인이
[01:18:23]
앞으로 계속 자동으로 운영될 것입니다
[01:18:25]
약속드리지만, 이것을 꾸준히 유지하면
[01:18:27]
앞으로 1년에서 1년 반 이내에
[01:18:29]
실제 결과를 볼 수 있을 것입니다
[01:18:31]
만약 AI 에이전시 소유자라면
[01:18:33]
이 템플릿을 고객들에게 월 200달러 이상에
[01:18:35]
재판매할 수 있습니다
[01:18:37]
새 고객을 확보하여 제가 제공한 템플릿을
[01:18:40]
연결하기만 하면
[01:18:42]
블로그 포스트가 백엔드에서
[01:18:43]
계속 자동으로 운영되며
[01:18:45]
특별히 할 일 없이 매달 200달러씩
[01:18:47]
수익을 얻을 수 있습니다
[01:18:48]
다시 한 번 말씀드리지만
[01:18:50]
이 영상이 도움이 되셨다면 좋아요와
[01:18:52]
구독, 그리고 댓글 남겨주시기 바랍니다
[01:18:53]
다음 영상에서 다시 만나뵙겠습니다
[01:18:55]
감사합니다