전체 SEO를 $1로 자동화하기 (무료 n8n 템플릿)

채널 아이콘
Kia Ghasem 구독자 4,740명

요약

이 영상은 SEO 캠페인을 자동화하여 비용을 크게 절감하고 효율적으로 운영할 수 있는 방법을 단계별로 설명합니다. 영상에서는 키워드 리서치와 클러스터 및 필러 포스트 전략, 내부 및 외부 링크 구축 등 SEO의 핵심 요소들을 자세하게 다룹니다. 또한, Google Ads, ChatGPT, Perplexity, 그리고 WordPress와의 연동 등 다양한 도구들을 활용하는 방법을 실습을 통해 보여줍니다. 최종적으로는 자동화된 워크플로우를 구축함으로써 인건비나 외주 비용 없이도 전문적인 SEO 캠페인을 운영하는 방법을 제시합니다.

주요 키워드

SEO 자동화 n8n 키워드 리서치 클러스터 포스트 필러 포스트 내부 링크 외부 링크 WordPress Perplexity API

하이라이트

  • 🔑 기본 전략: 필러 포스트와 클러스터 포스트를 통해 SEO 콘텐츠의 계층 구조를 형성하고, 체계적인 내부/외부 링크 구조를 구축하는 방법을 설명합니다.
  • 🚀 키워드 리서치: Google Ads의 키워드 플래너와 ChatGPT를 활용하여 관련 키워드와 검색 의도를 분석하고, Excel/Google Sheets 템플릿에 정리하는 절차를 자세하게 안내합니다.
  • ⚙️ 자동화 워크플로우: n8n과 같은 자동화 도구를 사용하여 일정 시간마다 블로그 포스트를 작성, HTML로 변환, WordPress에 게시하는 전 과정을 자동화하는 방법을 단계별로 시연합니다.
  • 📌 도구 연동: Perplexity, Sur API, 그리고 다양한 API 인증 과정을 통해 SEO 자동화 시스템을 구축하는 실제 설정 방법을 공유합니다.
  • 💡 비용 효율성: 수동 작업이나 고비용 SEO 대행 없이 자동화된 시스템을 통해 매월 수천 달러의 비용을 절감할 수 있음을 강조합니다.

용어 설명

클러스터 포스트

관련 키워드들을 모아 하나의 주제에 대해 작성한 여러 개의 블로그 포스트들을 말하며, 서로 내부 링크로 연결되어 검색 순위 상승에 도움을 줍니다.

필러 포스트

클러스터 포스트들을 한데 모아 전체 내용을 총괄하는 높은 수준의 포스트로, 각 클러스터 포스트로의 연결 역할을 수행합니다.

내부 링크

같은 웹사이트 내에서 서로 다른 포스트나 페이지를 연결하는 하이퍼링크로, SEO 최적화에 중요한 요소로 작용합니다.

외부 링크

웹사이트 외부의 신뢰할만한 소스에 연결하는 링크로, 콘텐츠의 신뢰도와 SEO 순위를 높이는 데 기여합니다.

n8n

코드 없이 다양한 API와 서비스를 연결해 자동화 워크플로우를 구축할 수 있는 오픈소스 도구입니다.

슬러그

웹사이트 URL에서 도메인 다음에 오는 부분으로, 포스트의 제목이나 주제를 간결하게 나타내 SEO에 영향을 미칩니다.

[00:00:00] SEO 자동화 개요 및 전략 소개

영상은 SEO 자동화를 통한 비용 절감 및 효율적 운영 방법을 소개한다. 필러 포스트와 클러스터 포스트 개념을 설명하며, 내부 및 외부 링크의 중요성을 강조한다.

SEO 캠페인을 완전 자동화하는 방법을 소개하며, 직접 작업 없이도 블로그 글을 100% 자동으로 작성할 수 있는 시스템을 공유할 것이라고 설명합니다.
SEO의 기본 개념을 설명하며, 특정 키워드에서 상위 랭킹을 차지하는 것이 목표임을 이발소 예시를 통해 설명합니다.
선글라스 검색 결과를 예시로 들어, 광고(유료)와 자연 검색 결과(무료)의 차이점을 설명하고 SEO의 비용 효율성을 강조합니다.
SEO의 중요성을 강조하며, 제대로 된 SEO만으로도 전체 마케팅 퍼널 없이 지속적인 고객 확보가 가능하다고 설명합니다.
SEO 실행 방법의 첫 단계로 블로그 포스팅이 필요하다는 점을 소개합니다.
블로그 포스팅의 기본 개념과 실제 사례를 AI 에이전트 검색 결과를 통해 설명합니다. Salesforce, IBM, Amazon 등 기업들이 블로그를 작성하는 실제 목적이 SEO임을 설명합니다.
SEO 전략의 핵심은 키워드 선정과 블로그 작성이며, 이를 통해 검색 순위 상승, 웹사이트 트래픽 증가, 고객 확보로 이어지는 과정을 설명합니다.
단순한 블로그 작성을 넘어, 전략적인 접근과 블로그 간의 연결이 필요함을 강조합니다.
구글의 SEO 전략에 대해 설명하면서 클러스터 개념을 소개합니다. 클러스터는 연관된 키워드들의 집합이며, 이를 효과적으로 활용하는 방법을 설명합니다.
구글이 원하는 블로그 연결 전략을 설명하며, 클러스터 간의 하이퍼링크 연결 방식과 순환 구조를 자세히 설명합니다.
클러스터형 SEO 전략에서는 모든 블로그 포스트들이 서로 연결되어야 하며, 많은 포스트를 작성하고 내부 하이퍼링크로 연결해야 합니다.
아마존의 블로그를 예로 들면, '챗봇'이나 'Lex 챗봇'과 같은 키워드들이 다른 관련 블로그 포스트로 연결되어 있습니다.
구글은 필러 포스트라는 상위 수준의 콘텐츠를 만들 것을 권장합니다. 이는 여러 하위 클러스터 포스트들을 포괄하고 연결하는 역할을 합니다.
SEO 전략의 마지막 요소는 외부 링크로, 아마존, OpenAI, 구글과 같은 신뢰할 수 있는 출처의 콘텐츠를 연결하여 블로그의 신뢰성을 높입니다.
SEO 전략의 핵심 요소로 내부 링크와 외부 링크의 중요성을 설명하고, 필러 포스트와 클러스터의 구조를 소개합니다.
자동차 딜러십을 예시로 들어, '30대 이상 아빠들을 위한 궁극의 자동차 구매 가이드'를 중심으로 한 SEO 구조를 설명합니다.
가족용 차량 선택과 관련된 구체적인 키워드 예시를 제시하고, 이를 통한 타겟 마케팅 전략을 설명합니다.
실제 검색 시나리오를 통해 SEO 전략의 실질적인 효과와 전환 과정을 설명합니다.
주간 블로그 포스팅 전략을 소개하며, 클러스터 포스트의 중요성을 강조합니다.
AI 분야에서 매주 두 가지 포스트를 작성하는데, 하나는 트렌드 포스트이고 다른 하나는 키워드 타겟팅 포스트입니다.
AI 분야에서 가장 핫한 주제나 최신 트렌드를 다루는 포스트를 매주 작성하고 있습니다.
모든 포스팅 과정을 자동화하여 클러스터 포스트와 트렌드 포스트가 자동으로 발행됩니다.
[00:10:00] 키워드 리서치 및 클러스터 구성

Google Ads와 ChatGPT를 통해 주요 키워드와 검색 의도를 분석하는 방법을 설명한다. Excel 템플릿에 키워드, 클러스터, 의도 등을 정리하는 과정을 시연한다.

SEO 클러스터 포스트 설정은 클러스터 식별, 내/외부 링크 연결, 필러 포스트 작성의 세 단계로 구성됩니다.
엑셀 시트를 통해 클러스터, 의도, 키워드를 체계적으로 관리하며, 검색 의도를 정확히 파악하여 콘텐츠를 제작합니다.
SEO는 단순히 키워드를 나열하는 것이 아닌, 사용자의 검색 의도를 파악하고 그에 맞는 콘텐츠를 제공하는 것이 중요합니다.
제공된 템플릿을 활용하여 클러스터, 검색 의도, 키워드를 체계적으로 구성할 수 있습니다.
키워드 리서치는 고가의 도구 대신 Google Ads나 ChatGPT를 활용하여 무료로 효과적으로 수행할 수 있습니다.
Google Ads 계정 생성부터 키워드 플래너 사용법까지 단계별로 설명합니다.
비즈니스의 핵심을 나타내는 주요 키워드를 입력하여 관련 키워드와 통계 데이터를 수집하는 방법을 소개합니다.
키워드 선택의 두 가지 핵심 지표인 검색량과 경쟁률에 대해 설명합니다.
구글 플랫폼을 경매장에 비유하여 SEO 경쟁 구조를 설명하고, 경쟁이 적은 키워드를 선택하는 것이 유리함을 강조합니다.
구글 애즈에서 월평균 검색량과 경쟁률을 확인하는 방법을 설명합니다.
SEO 초보자를 위해 롱테일 키워드 전략과 그 장점에 대해 설명합니다.
SEO 키워드 선정과 클러스터링 방법에 대해 상세한 설명은 생략하되, 필요하다면 댓글로 요청하면 자세히 설명해주겠다고 안내
마케팅 경험이 적은 사람들을 위한 더 쉬운 방법으로 ChatGPT 활용법 소개 시작
ChatGPT 프롬프트 작성 방법과 SEO 전략 수립을 위한 기본 구조 설명
핵심 게시물과 클러스터 구조화 방법, 그리고 비즈니스별 맞춤화 방법 설명
ChatGPT의 reasoning 모델 사용을 추천하며, 복잡한 다단계 사고에 더 효과적임을 강조
중소기업 자동화 가이드에 대한 클러스터 구조를 설명합니다. 첫 번째 클러스터는 비즈니스 자동화 기초를 다루고, 두 번째는 AI 기반 자동화의 이점을 다룹니다.
ChatGPT를 활용한 콘텐츠 생성 방법과 프롬프트 활용법을 설명합니다. 원하는 내용을 선별하고 엑셀 템플릿에 맞게 포맷팅하는 과정을 보여줍니다.
[00:20:00] 자동화 워크플로우 구축

n8n을 활용하여 Google Sheets, HTTP 요청, Perplexity 등의 모듈을 연결하고 자동화 트리거를 설정하는 방법을 보여준다. 단계별 설정으로 자동 발행 프로세스를 구성한다.

키워드 리서치를 수동으로 유지하는 이유를 설명합니다. 반복적이지 않은 작업이며, 직접 참여를 통한 부가가치 창출이 가능하다는 점을 강조합니다.
자동화의 핵심은 투자 대비 수익임을 강조합니다. 적은 노력으로 큰 시간 절약을 달성하는 것이 효율적인 자동화의 목표임을 설명합니다.
시간 절약이 궁극적인 목표임을 강조하며, 지루한 마케팅 설명을 마치고 실제 자동화 방법 설명으로 전환합니다.
주당 1달러 미만으로 전체 SEO 캠페인을 자동화하는 방법을 소개하며, 클러스터 SEO 포스트와 트렌드 포스트 두 가지 유형을 설명합니다.
실제 웹사이트에 게시된 SEO 포스트의 구조를 상세히 설명합니다. 이미지, 헤더, 핵심 요약, 목차, 내부/외부 링크 등의 요소를 포함합니다.
자동화 시스템의 효과를 강조하며, 최소한의 개입으로 높은 품질의 콘텐츠를 생성할 수 있음을 설명합니다.
AI 에이전트 대신 전통적인 규칙 기반 자동화를 선택한 이유를 설명하며, 지속 가능하고 안정적인 시스템의 중요성을 강조합니다.
AI 에이전트를 여러 개 사용하는 것보다 규칙 기반 자동화가 더 효율적인 이유를 설명합니다. AI 에이전트는 99%는 잘 작동할 수 있지만, 100% 신뢰할 수 없고 비용도 더 많이 든다고 합니다.
자동화 시스템의 기본 구성에 대해 설명합니다. 스케줄 트리거를 사용하여 매주 특정 시간에 자동으로 실행되도록 설정하는 방법을 자세히 다룹니다.
블로그 포스팅 빈도에 대한 조언을 제공합니다. 주 2회 정도가 적절하며, 너무 많은 포스팅은 스팸으로 인식될 수 있다고 경고합니다.
자동화의 첫 단계로 블로그 주제 선정과 키워드 클러스터 작업을 위한 엑셀 템플릿 사용법을 설명합니다.
Google Sheets로 데이터를 옮기는 방법과 이유를 설명합니다. N8N과의 연동을 위해 구글 시트가 더 효율적이라고 설명합니다.
구글 시트에 'completed' 열을 추가하여 블로그 포스트 작성 여부를 표시하는 방법을 설명합니다. 첫 항목은 'yes'로, 나머지는 'no'로 설정합니다.
자동화의 목표를 설명하고, 클러스터 정보를 가져오기 위한 Google Sheets API 연동 방법을 소개합니다.
필러 포스트에 따른 시트 구성 방법을 설명합니다. 여러 필러 포스트를 관리하기 위해 시트를 구분하는 방법을 보여줍니다.
실행 과정에서 발생한 문제를 해결하기 위해 필터링 설정을 조정하는 과정을 설명합니다.
미완료된 블로그 포스트를 필터링하기 위해 completed 컬럼이 'no'인 첫 번째 항목을 선택하는 필터를 설정합니다.
필터링 결과로 '멀티 에이전트 시스템 복잡한 상호작용'이라는 주제의 블로그 포스트가 선택되었습니다.
선택된 포스트에 대해 클러스터 이름, 검색 의도, 키워드 등의 기본 정보를 확인하고 예비 계획 수립을 시작합니다.
포스트 계획을 위해 OpenAI 추론 모델을 사용하기로 결정하고, API 연동 방법을 설명합니다.
AI 모델에게 블로그 포스트 작성을 위한 키워드, 검색 의도, 포스트 구조에 대한 상세한 프롬프트를 제공합니다.
AI 모델이 생성한 멀티 에이전트 시스템에 대한 예비 블로그 포스트 계획이 완성되었습니다.
게시물 예비 계획을 가져와 Perplexity를 사용해 리서치를 진행할 것을 설명합니다.
Perplexity의 기본 기능과 특징을 소개하며, 이 도구가 일상적으로 사용하기에 매우 유용함을 강조합니다.
Perplexity의 작동 방식을 설명하며, 구글 검색과 유사하지만 정보를 자동으로 요약해주는 장점을 소개합니다.
'Deep Seek'에 대한 실제 검색 예시를 통해 Perplexity의 검색 결과 표시 방식과 인용 기능을 시연합니다.
Perplexity API 연결 방법과 HTTP 요청 노드 설정 방법을 상세히 설명하며, 템플릿 다운로드를 추천합니다.
API 연동을 위한 URL 설정과 인증 과정을 단계별로 설명하고, API 키 획득 방법을 안내합니다.
API 인증 설정 방법을 설명합니다. 인증 타입을 일반 자격 증명으로 설정하고, 헤더에 'Bearer' 토큰 방식으로 API 키를 추가하는 과정을 보여줍니다.
요청 본문 설정에 대해 설명합니다. JSON 형식으로 요청을 보내며, 특히 모델 선택에서 Sona Pro를 추천하는 이유를 설명합니다.
Sona Pro 모델의 장점을 설명합니다. 일반 Sona 모델보다 두 배 많은 10개의 인용과 링크를 제공하여 블로그 작성에 더 유용함을 강조합니다.
사용자 프롬프트 설정과 검색 방법을 설명합니다. 블로그 계획의 각 제목에 대한 심층 연구를 요청하는 방법을 보여줍니다.
Perplexity의 결과물 형식과 인용 처리 방식을 설명합니다. 숫자로 된 인용을 실제 URL로 변환하는 노드의 필요성과 기능을 설명합니다.
[00:35:00] WordPress 연동 및 콘텐츠 최적화

자동으로 생성된 마크다운 콘텐츠를 HTML로 변환하고, WordPress API를 통해 블로그 포스트를 게시하는 방법을 안내한다. 내부 링크와 메타데이터, 슬러그 설정 방법을 포함한다.

URL 수정 방법에 대해 설명하고, 블로그 포스트 플랜 노드의 기능을 소개합니다.
n8n에서 사용할 수 있는 최적의 AI 모델에 대해 설명하며, O1 프리뷰와 DeepSeek R1 모델의 장단점을 비교합니다.
블로그 포스트 작성을 위한 프롬프트 구성 방법과 필요한 입력값들에 대해 상세히 설명합니다.
O1 프리뷰 모델의 처리 속도 특성을 설명하고, 최종 출력 결과를 확인한 후 다음 단계인 카피라이팅 노드로의 전환을 안내합니다.
카피라이팅을 위해 Claude 3.5 Sonet 사용을 추천하며, 이는 더욱 자연스러운 문체를 구사하고 인간다운 글쓰기가 가능합니다.
Claude 3.5 Sonet 연결 방법으로는 Anthropic 웹사이트나 Open Router를 통한 두 가지 방식이 있으며, API 키 설정이 매우 간단합니다.
블로그 작성을 위한 상세한 프롬프트 설정에 대해 설명하며, 최고의 카피라이터 역할과 구체적인 지침을 포함했습니다.
최종 블로그 포스트 결과물 '멀티 에이전트 시스템의 부상'이라는 주제로 작성되었으며, 기업을 위한 가이드 형식으로 구성되었습니다.
다음 단계로 내부 링크 정리 작업이 필요하며, 연구 자료의 링크를 블로그 포스트에 유지하도록 설정했습니다.
외부 링크가 이미 설정되어 있음을 확인하고, IBM으로 연결되는 링크를 예시로 보여줍니다.
블로그 포스트의 두 번째 중요한 구성 요소인 내부 링크 작업을 시작하려 합니다.
'완료된 키워드' 시트를 소개하며, 이는 이전 블로그 포스트의 제목, 키워드, 요약, URL을 포함하는 기록 시스템입니다.
현재까지 39개의 블로그 포스트를 작성했으며, 각 포스트마다 상세 정보를 시트에 기록하고 있습니다.
내부 링크 구현 방법을 설명하며, 이전 포스트 정보를 활용해 현재 포스트와의 관련성을 분석하고 적절한 링크를 생성합니다.
OpenAI 노드를 효율적으로 사용하기 위해 데이터를 하나로 통합하고, 추론 모델을 활용하여 내부 링크를 생성하는 과정을 설명합니다.
블로그 포스트 간의 내부 링크 작업에 대한 프롬프트를 설명합니다. 최고 수준의 블로그를 만드는 팀에서 내부 링크를 담당하며, 각 포스트마다 최소 5개의 관련성 높은 내부 링크를 생성해야 합니다.
현재 블로그 포스트와 이전 포스트들의 키워드, 요약, 제목 정보를 제공하여 AI가 적절한 내부 링크를 찾을 수 있도록 설정했습니다.
AI 모델에게 이전 블로그 포스트는 반환하지 말고, 현재 포스트에 내부 링크만 추가하도록 지시했습니다. 정보 추가나 삭제 없이 순수하게 내부 링크만 추가하도록 했습니다.
구글 SEO 관점에서 관련성 없는 무분별한 내부 링크는 오히려 해가 되므로, 정당하고 관련성 높은 링크만 생성하도록 설정했습니다.
최종적으로 마크다운 형식의 블로그 포스트를 웹 페이지 게시를 위한 HTML 형식으로 변환하는 과정을 설명합니다.
HTML(하이퍼텍스트 마크업 언어)에 대한 기본 설명과 웹페이지 제작에서의 역할을 소개합니다.
블로그 포스트 작성을 위한 OpenAI 추론 모델 사용과 프롬프트의 중요성에 대해 설명합니다.
블로그 포스트의 주요 구성 요소(핵심 내용, 읽기 시간, 목차 등)와 포맷팅 방식을 상세히 설명합니다.
ChatGPT를 활용한 블로그 포스트 템플릿 커스터마이징 방법과 HTML 변환 프로세스를 안내합니다.
2025년에는 코딩 지식보다 프롬프트 작성 능력이 더 중요하다는 점을 강조하며, 자동화 프로세스의 실행 과정을 보여줍니다.
HTML 코드로 된 블로그 포스트 출력물이 생성되었으며, 이는 나중에 실제 모습을 확인할 예정입니다.
블로그 포스트의 URL 구조를 위한 슬러그(slug)의 개념과 생성 방법에 대해 설명합니다. SEO를 고려하여 주요 키워드를 활용합니다.
블로그 포스트의 제목 생성 과정과 GPT-4를 활용한 최적화된 제목 작성 방법을 소개합니다.
[00:50:00] 최종 검토 및 비용 효율성 강조

최종적으로 설정된 SEO 자동화 시스템을 시연하며, 실제 워크플로우와 결과물을 확인한다. 수동 SEO 대행 비용 없이 자동화된 시스템이 가져다 주는 효율성을 강조한다.

메타 설명 생성과 블로그 포스트 상단의 이미지 컴포넌트의 중요성에 대해 설명하며, 전문성 있는 콘텐츠 표현 방법을 다룹니다.
Surfer API를 활용한 이미지 생성 및 통합 프로세스에 대해 소개합니다.
Surf API 소개 및 기본 기능 설명: API를 통한 구글 검색 기능과 무료 사용량(월 100회) 안내
Surf API 플레이그라운드 사용법 설명: 검색 쿼리 설정과 이미지 검색 결과 확인 방법 시연
API 파라미터 설정 방법: 검색어(Q) 설정과 지역(GL) 파라미터 설정에 대한 상세 설명
실제 검색 결과 확인: 이미지 검색 결과 데모와 원본 이미지 확인 과정 시연
멀티 에이전트 시스템에 대한 Solu Lab의 다이어그램을 찾아 선택했습니다. 이미지는 멀티 에이전트 RAG 시스템의 사용자 프롬프트 흐름을 보여주는 내용입니다.
워드프레스에 포스트를 작성하는 중요한 단계로 넘어갑니다. n8n은 워드프레스와의 통합이 미리 설정되어 있어 HTTP 요청 노드를 따로 만들 필요가 없습니다.
워드프레스 연동을 위해 사용자 설정에서 애플리케이션 비밀번호를 생성하는 과정을 설명합니다.
n8n에서 워드프레스 연동을 위해 사용자명, 애플리케이션 비밀번호, 워드프레스 URL을 설정하는 방법을 상세히 안내합니다.
워드프레스 웹사이트 연결을 위한 기본 설정을 설명합니다. 애플리케이션 비밀번호와 사용자 이름을 입력하고 저장하면 연결이 완료됩니다.
블로그 포스트 생성을 위한 기본 설정에 대해 설명합니다. post 요청 확인과 create 작업 설정, 그리고 제목과 작성자 정보 입력 방법을 다룹니다.
블로그 포스트의 실제 내용 구성 방법을 설명합니다. 커버 이미지 설정과 본문 배치, URL 슬러그 설정 등 세부 사항을 다룹니다.
포스트 발행 설정과 관련된 개인적인 접근 방식을 공유합니다. 초기에는 검토 과정을 거치고, 신뢰도가 쌓이면 자동 발행으로 전환하는 것을 추천합니다.
워드프레스의 카테고리와 태그 시스템에 대해 설명하며, SEO 최적화를 위한 효과적인 사용 방법을 소개합니다.
템플릿 선택 및 블로그 포스트 생성 노드를 설정하고 테스트를 시작합니다. 워드프레스에서 자동 생성된 블로그 포스트를 확인합니다.
'멀티 에이전트 시스템의 부상: 기업을 위한 완벽 가이드'라는 제목의 블로그 포스트가 생성되었으며, 커버 이미지, 목차, 내부/외부 링크 등이 포함되어 있습니다.
'휴먼 인 더 루프 vs 완전 자동화 프로세스'에 대한 내용을 다루며, 이번에는 완전 자동화 방식을 선택했습니다. 미래 트렌드, 결론, FAQ 등이 포함된 완성도 높은 포스트가 생성되었습니다.
월 2,000달러 상당의 SEO 회사 서비스를 100% 자동화로 대체할 수 있는 템플릿을 제공합니다. 이를 통해 비용 절감과 SEO 효과를 동시에 얻을 수 있습니다.
블로그 포스트 작성 완료 후, 엑셀 시트에서 완료 상태를 업데이트하고 완료된 키워드 목록에 새로운 포스트를 추가하는 작업을 진행합니다.
엑셀 시트에 블로그 포스트 정보를 자동으로 기록하는 방법과 내부 링크 시스템에 대해 설명합니다.
자동화 설정에서 URL 도메인만 자신의 것으로 변경하면 되며, 슬러그는 그대로 유지해야 함을 설명합니다.
클러스터 SEO 포스트에서 트렌드 SEO 포스트로 주제를 전환하며, 트렌드 포스트의 목적과 적용 가능성에 대해 설명합니다.
트렌드 SEO 자동화의 기본 설정과 스케줄 트리거 사용 방법에 대해 설명합니다.
Google Trends와 Serpapi를 활용한 트렌드 검색 방법과 접근 방식을 소개합니다.
구글 트렌드 도구 소개와 콘텐츠 제작자를 위한 유용성 설명
탐색 섹션에서 트렌드 검색 방법과 Sur API 활용 방안 소개
'AI agents' 키워드로 미국 지역의 12개월 트렌드 분석 - 1월 급상승 확인
7일 단위 실시간 트렌드 분석과 웹, 뉴스, 유튜브 검색 옵션 설명
관련 검색어 분석 - OpenAI Deep Research가 최상위 트렌드로 확인
Sur API 연결 및 자동화 설정 방법 안내
구글 트렌드를 사용하여 검색 설정 방법을 설명합니다. 트렌드와 이미지 검색을 위한 쿼리 매개변수 설정 방법을 소개합니다.
검색어 'AI 에이전트'를 선택한 이유와 비즈니스 목표를 설명합니다. SEO를 통해 해당 키워드에서 1위 노출을 목표로 한다고 합니다.
각 비즈니스에 맞는 키워드 선택의 예시를 들며 설명합니다. 잔디 깎기 회사나 치과 서비스 등 구체적인 예시를 통해 설명합니다.
지리적 위치를 미국으로, 언어를 영어로 설정하고 시간 프레임 설정의 중요성을 설명합니다.
최근 3일간의 트렌드를 보는 것이 가장 효과적인 이유를 설명하고, 데이터 수집 방식에 대해 상세히 설명합니다.
데이터 유형 설정에서 '연관 쿼리'를 선택하는 이유와 그 중요성을 설명하고, 실제 검색 예시를 보여줍니다.
SERP API를 통해 검색 트렌드 결과를 확인했습니다. 상승 중인 연관 검색어 1위는 'origami agents', 2위는 'OpenAI deep research'로 나타났습니다.
트렌드 키워드의 증가율을 분석했습니다. 'origami agents'는 38,050%, 'OpenAI research'는 35,700%의 검색량 증가를 보였습니다.
연관 검색어를 찾는 두 가지 방식(상승률과 검색량)을 설명하고, 일반적인 키워드와 트렌드 키워드의 차이점을 분석했습니다.
자바스크립트를 사용해 상위 키워드들을 하나의 문자열로 통합하고, Claude-1 AI 모델을 활용하여 키워드 처리를 시작했습니다.
트렌딩 키워드 선택과 비즈니스 소개: 블로그 포스트 작성을 위해 상위 트렌딩 키워드 중 하나를 선택하고, AI 자동화 에이전시 Kexa의 제품과 서비스에 대해 설명합니다.
키워드 속성 설명: 키워드의 두 가지 주요 속성인 실제 쿼리와 증가 점수에 대해 설명하고, 이를 기반으로 키워드를 선택하는 방법을 안내합니다.
오리가미 에이전트 키워드 분석: DeepSearch가 성공적으로 '오리가미 에이전트'를 키워드로 선택했으며, 이것이 실제 애플리케이션임을 확인했습니다.
연구 및 콘텐츠 생성 과정: Perplexity를 사용한 리서치 과정과 링크 수정, 그리고 Claude-2-Sonnet을 통한 블로그 포스트 작성 방법을 설명합니다.
블로그 포스트 생성을 위한 입력 정보와 구조를 설명합니다. 전문가 수준의 1,500-2,000단어 분량의 콘텐츠를 작성하도록 설정했습니다.
트렌딩 키워드와 Perplexity의 연구 결과를 바탕으로 GPT-3.5를 통해 블로그 포스트를 생성합니다.
'오리가미 에이전트: AI 기반 영업 혁명'이라는 제목의 블로그 포스트가 완성되었습니다.
이전 블로그 포스트들의 정보를 통합하고, 내부 링크 작업을 위한 데이터를 준비합니다.
Llama-2 모델을 사용하여 내부 링크를 처리하고, HTML 변환 및 메타데이터 설정을 진행합니다.
최종적으로 워드프레스에 임시저장 형태로 포스트를 생성하여 결과를 확인합니다.
AI를 활용한 영업 혁신에 대한 블로그 포스트가 생성되었으며, 이미지, 제목, 예상 읽기 시간, 목차 등이 포함되어 있습니다.
워드프레스에 게시된 블로그를 엑셀 시트의 완료된 키워드 섹션에 추가하는 과정을 설명합니다.
고가의 SEO 에이전시 서비스 대신, 제공된 템플릿으로 자동화된 SEO 캠페인을 운영할 수 있음을 강조합니다.
AI 에이전시 소유자는 이 템플릿을 활용해 월 200달러의 수익을 창출할 수 있는 비즈니스 기회를 제시합니다.
이 영상에서는 SEO 캠페인을 완전히
자동화하는 방법을 보여드리겠습니다.
이를 통해 이런 블로그 글을
100% 자동화로 작성할 수 있게 되죠.
여러분이 직접 할 필요가 전혀 없습니다.
앞으로 몇 분 동안
SEO에 대해 알아야 할 모든 것을
알려드리고, 더 나아가
제가 직접 사용하는
SEO 블로그 자동화 템플릿도 공유해드리겠습니다.
여러분도 아시다시피 저희는 정보를 숨기지 않습니다.
모든 템플릿은
아래 설명란에
있을 거예요.
다운로드해서 가져오기만 하면 됩니다.
약간만 수정해서 SEO 캠페인을 실행할 수 있죠.
아마 30분도 안 걸릴 겁니다.
자, 이제 시간 낭비하지 말고
바로 시작해보겠습니다.
SEO의 궁극적인 목표는 특정 키워드에서
상위 랭킹을 차지하는 것입니다.
예를 들어 이발소를 운영한다고 할 때
누군가 도시의 이발소를 검색하면
검색 결과 1위로 나오는 것이 목표입니다.
사람들은 보통 첫 번째 결과를 선택해서
지도에 입력하고
바로 그 이발소를 방문하니까요.
지도에서 확인하고
이발소를 방문해서
머리를 자르게 되죠. 새로운 고객이 생기는 거예요.
SEO의 핵심은 원하는 키워드를 찾아내고
그 키워드에서 상위 랭킹을 차지하는 것
즉, 구글에서 상위에 노출되거나
검색 결과 1위로 나오는 것이 목표입니다.
누군가가 그 검색어를
찾을 때요. 예를 들어
이해를 돕기 위해
선글라스를 온라인으로 검색하면
첫 번째로 나오는 결과는
광고 표시가 있는 스폰서 결과입니다.
1위에 오르기 위해 비용을 지불했죠.
두 번째도 마찬가지로 광고입니다.
하지만 세 번째 선글라스 헛은
3위로 랭크되어 있지만
구글에 비용을
전혀 지불하지 않았습니다.
자연스럽게 검색 결과
3위에 올랐다는 것이죠.
비용을 들이지 않고도
웹사이트로 트래픽이
유입되고 있고, 이는 곧
실제 고객으로 전환될 가능성이 높습니다.
그것도 한 푼도 들이지 않고 말이죠.
네, 이것이 바로 SEO의 힘입니다.
SEO만 제대로 되어 있다면
전체 마케팅 퍼널이 필요 없습니다.
SEO만 제대로 해도
더 이상 고객 확보에
어려움을 겪지 않을 거예요.
게다가 가장 좋은 점은
모두 무료라는 것입니다.
자, 이론으로 돌아가서
앞서 말씀드렸듯이
선글라스와 같은 여러분의 분야와 관련된
키워드를 찾아내고
그 키워드에서 1위를 차지하는 것이 목표입니다.
누군가가 그 키워드나
관련 키워드를 검색했을 때
여러분의 제품이나 서비스가
1위로 나오게 하는 거죠.
이제 이해하셨다면
실제로 이것을 어떻게
달성할 수 있는지 알아보겠습니다.
사실 답은 매우 간단합니다.
블로그 글을 작성하기만 하면 됩니다.
블로그 포스트가 무엇인지는 아실 텐데요.
모르시는 분들을 위해 설명드리자면
예를 들어 온라인에서
'AI 에이전트가 무엇인가'를 검색하면
몇 가지 검색 결과가 나타나는데
AI 에이전트에 대해 설명하는 글들이 있습니다
Salesforce, IBM, Amazon 같은 기업들의 글이죠
그런데 IBM, Amazon, Salesforce가 정말로
AI 에이전트를 설명하는 것이 목적일까요?
그럴 수도 있지만, 주된 이유는 아닙니다
이런 블로그를 작성하는 진짜 이유는
블로그 내부에
특정 키워드들을 포함시켜
해당 키워드로 검색했을 때
상위에 노출되기 위해서입니다
즉, 목표는 키워드를 찾고
관련 블로그를 작성하는 것이며
시간이 지나면서 구글이
해당 키워드에 대해 더 높은 순위를 부여하고
이는 SEO를 향상시키며
자연스럽게 키워드 순위가 올라가게 됩니다
이를 통해 웹사이트 트래픽이 증가하고
결과적으로 더 많은 고객을 확보할 수 있죠
방금 키워드라는 말을 열두 번은 한 것 같네요
하지만 진짜로 키워드는
SEO에서 매우 중요한 요소입니다
하지만 솔직히 말씀드리면
단순히 키워드를 찾아서
블로그를 여러 개 작성하는 것만으로는
충분하지 않습니다
특정한 방식으로 블로그를 작성하고
블로그들을 서로 연결해야
구글이 실제로
블로그 게시물에 대해 보상을 합니다
지금 여러분이 아무 생각 없이
전략도 없이
블로그를 무작정 작성하고 있다면
효과가 없을 것이라고 장담합니다
자, 이제 화이트보드로 돌아가보죠
구글의 문서를 보시면
블로그 포스팅으로 SEO를 높이기 위한
전략이 무엇인지 알 수 있는데
제가 여기 그린 다이어그램이
바로 그것입니다
사실 그렇게 어렵지 않아요
자세히 설명해드리겠습니다
다이어그램을 설명하기 전에
C1, C2, C3, C4가 무엇인지
빠르게 설명해드리겠습니다
여기서 C는 클러스터를 의미합니다
클러스터는 키워드들의 집합인데
예를 들어 키워드1, 키워드2, 키워드3처럼
서로 연관되어 있고 비슷한 키워드들을
하나의 블로그 포스트에
함께 넣을 수 있는 것들입니다
즉, 클러스터는 같은 블로그 포스트에
넣을 수 있는 연관된 키워드 그룹이에요
구글이 원하는 것은
순위를 높이고 싶은 키워드들이 포함된
많은 블로그 포스트를 작성하고
이 블로그들이
키워드를 포함하면서
서로 연결되어 있어야 합니다
예를 들어 클러스터1에 대한
블로그를 읽을 때
클러스터2와 연관된 내용이 있다면
클러스터1 내용에 하이퍼링크를 걸어서
클러스터1의 글에서
그 링크를 클릭하면
클러스터2 블로그로 이동하게 하고
클러스터2 블로그에서는
다시 클러스터3으로 연결되고
클러스터4, 5를 거쳐 다시 클러스터1로 연결됩니다
다시 모든 클러스터로 돌아가서
기본적으로 여러분이 많은 블로그 포스트를
작성하고 이 블로그 포스트들을
내부에서 하이퍼링크로
연결하기를 원합니다. 이해를 돕기 위해
앞서 보여드린 아마존 블로그 포스트로
다시 한번 살펴보면
일부 단어들이
하이퍼링크로 되어있는 것을 볼 수 있습니다. '챗봇'을
클릭하면 아마존이 작성한
다른 블로그 포스트로 연결됩니다. 이렇게
블로그 포스트들을 내부적으로 연결했고
'봇' 내부로 들어가면
다른 것들로도 연결되어 있을 겁니다
아마존의 다른 것에 대해 배우기나
Lex 챗봇에 대해 읽어보기 같은 것들이죠
이것을 클릭하면 아마도 또 다른
아마존 포스트가 나올 것입니다. 이런 식으로
정말 간단합니다. 그들이 원하는 것은
많은 블로그를 포스팅하고
최적화하고 싶은 키워드를
그 안에 포함시키고
이 블로그들을 서로 연결하는 것입니다
자, 이제 SEO 전략의 첫 번째
부분을 이해하셨을 겁니다. 블로그를 포스팅하고
서로 연결하는 것이죠. 이제 더 나은
가독성을 위해 구글이 원하는 것은
필러 포스트를 정의하는 것입니다
필러 포스트는 말하자면
아주 상위 수준의 포스트입니다.
왜 이게 클릭이 안 되지...
이 상위 수준의 포스트는 아래에 있는
모든 클러스터들과 연결됩니다
특정 주제에 대해 깊이 다루지는 않지만
이 포스트가 할 일은
이러한 작은 블로그 포스트들을 모두 다루고
내부에서 링크로 연결하는 것입니다
계층 구조로 생각해보면
여기 위에 필러 포스트가 있고
그 아래에 이런 작은
클러스터 포스트들이 있으며, 이들도
서로 연관되어 있습니다. 하지만 이
맨 위에 있는 필러 포스트는
매우 상위 수준이며 아래에 있는
모든 포스트들을 다룹니다. 정말 간단하죠
서로 연결된 여러 블로그가 있고
서로
연결되어 있으며, 상위 레벨의 필러 포스트가
아래에 있는 모든 블로그들과
연결되어 있습니다. 자, 이렇게
간단합니다. 이제 단 하나의
구성 요소만 더 이해하면
SEO 전략을 완벽하게 이해하실 수 있는데
그것은 바로 외부 링크입니다. 외부 링크는
내부 링크와 정확히 같습니다.
다른 웹 페이지로 연결되는 하이퍼링크된 단어들이지만
이 웹 페이지들은 자신의 웹사이트에 있는
블로그 포스트가 아니라
다른 사람의 웹사이트에 있는 블로그 포스트이고
이러한 다른 웹사이트들은 보통
매우 신뢰할 수 있는
출처입니다. 예를 들어
아마존이나 OpenAI, 또는
음... 구글 자체와 같은 곳들이죠. 이렇게
신뢰할 수 있는 출처에 링크를 걸면
SEO도 향상되고
블로그 포스트의 내용도
사실에 근거하고 도움이 되는 것으로 간주되며
그저 차고에서
생각해낸 것이 아니게 됩니다. 자, 이렇게
간단합니다. 여러분이 할 일은
많은 블로그를 가지고 그 안에
순위를 올리고 싶은 키워드를 넣고
그리고 나서
이러한 블로그들을 내부 링크로
서로 연결하고 싶을 것이고,
또한 이 블로그들이 신뢰할 수 있는
출처와 다른 도메인 및 웹사이트로
외부 링크를 가지게 하고, 마지막으로
여러 개의 필러 포스트를 만들어
이와 가장 관련성이 높은 클러스터들과
연결하면 됩니다.
바로 이게 전부입니다.
빠른 예시를 보여드리겠습니다.
완벽히 이해하실 수 있도록, 예를 들어
제가 자동차 딜러십의 SEO를 담당한다고 할 때
그들이 가질 수 있는
필러 포스트 중 하나는 '30대 이상 아빠들을 위한
궁극의 자동차 구매 가이드'가 될 것입니다.
그 아래의 클러스터들 중 하나는
적절한 가족용 차량 선택에 대한 것이고
두 번째 클러스터는
할부 금융과 딜에 관한 것으로,
30대 아빠들을 위한 새 차 구매라는
일반적인 주제의 두 가지 구성 요소입니다.
보시다시피 각 클러스터 아래에는
예를 들어
적절한 가족용 차량 선택이라는
클러스터에는 서로 연관된
다양한 키워드들이 있습니다.
아빠들을 위한 최고의 자동차, 30대 이상
아빠들을 위한 가족용 차, 주요 가족용 차량
특징, 아빠들을 위한 넓은 실내공간,
가족을 위한 첨단 기술 탑재 차량 등이 있고
이 클러스터 내의 키워드로
하나 또는 여러 개의
블로그 포스트를 작성하게 됩니다.
그리고 두 번째 클러스터인
할부 금융과 딜에 대해서도
동일하게 진행하며, 키워드를 보면
모두 할부 금융과 딜,
그리고 대출에 관련된 것입니다.
키워드들을 자세히 보면
이 키워드들이
자동차 딜러십의 목표 시장이나
타깃 고객이 검색할 만한
키워드라는 것을 알 수 있습니다.
예를 들어, 제가 30대 이상의 아빠이고
자동차를 찾고 있다면
'아빠들을 위한 최고의 자동차'나
'주요 가족용 차량 특징' 또는
'30대 이상 아빠들을 위한
가족용 차'를 검색할 것입니다.
그래서 누군가 구글에서 이걸 검색하면
우리가 1위로 노출되고,
그들이 읽고 우리를 발견하게 되며,
잠재적으로 다른 링크로
계속해서 이동하다가
결국에는
우리 서비스를 구매하게 되는 겁니다.
이제 SEO가 무엇인지,
그리고 SEO를 향상시키기 위해
어떤 전략을 구현해야 하는지 이해하셨을 겁니다.
이제 제 전략을 살펴보고
이 비디오에서 제공하는
템플릿을 다운로드하면
무엇을 얻을 수 있는지 알아보겠습니다.
제 전략은 매주 두 개의 블로그 포스트를
작성하는 것입니다. 그 중 하나는
클러스터 포스트로, 이전에 언급했던 것처럼
제 분야에서 1위를 목표로 하는
특정 키워드를 타겟팅하는
포스트입니다.
이는 매주 진행되어
매주 하나의
클러스터 포스트에
키워드가 포함될 것입니다.
매주 작성할 두 번째 포스트는
이것은 트렌드 포스트인데, 제가 AI 분야에 있기 때문에
우리 업계에서는 항상 새로운 발전이
일어나고 있습니다.
2-3일 또는 4일마다,
매주 새로운 일이 일어나죠.
누군가 새로운 것을 발표하고
새로운 모델을 출시하면
모든 사람들이 그것에 대해 이야기합니다.
그래서 제가 SEO를 발전시킬 수 있는
좋은 방법은 이러한 트렌디한 주제들에 대해 포스팅하는 것입니다.
말씀드린 대로 매주
하나의 포스트를 작성하는데, 이는
지난 3일 동안의 가장 핫한 주제나
AI 분야에서 가장 트렌디한 것을
다루고 있습니다. 즉, 매주 두 개의 포스트를 작성하는데
첫 번째 포스트는
타겟팅하고 싶은 키워드를
다루고, 두 번째 포스트는
매우 핫하고 트렌디한 주제를
다룹니다. 사람들이 많이 검색하고
1위로 랭크하고 싶은 주제죠.
아시다시피 저는 이 모든 것을
완전히 자동화했습니다. 매주 하나의 클러스터 포스트와
하나의 트렌드 포스트가
자동으로 발행되고 있어서
제가 직접 아무것도 할 필요가 없습니다.
모든 것이 자동화되어
백엔드에서 처리되고 있으며
오늘 여러분과 공유할 내용이
바로 이것입니다. 자, 이제 자세히 살펴보겠습니다
우리가 자동화할 첫 번째 유형의
포스트인 클러스터 포스트,
즉 실제로 랭크하고 싶은
키워드를 타겟팅하는 포스트입니다.
이것을 설정할 때는
세 가지 구성 요소가 있는데
첫 번째는 이러한 클러스터를 식별하거나
포스팅하고 싶은 키워드와
주제를 식별하는 것입니다.
두 번째 부분은 이러한 클러스터 포스트들을
내부 링크와 외부 링크로
서로 연결하는 것입니다.
그리고 세 번째이자
마지막 부분은 몇 달에 한 번씩
이러한 클러스터 포스트들을 모두 모아
필러 포스트를 게시하는 것입니다.
말씀드린 대로 첫 번째 단계는
클러스터를 파악하는 것입니다. 시작해보겠습니다.
목표는 이와 같은 엑셀 시트를
만드는 것입니다.
여기에는 많은 클러스터와
그에 따른 키워드들이
포함되어 있습니다.
컬럼들을 자세히 보면
클러스터, 의도, 키워드,
그리고 주요 키워드가 있습니다. 클러스터는
기본적으로 해당
특정 클러스터의 이름입니다. 의도는
SEO 랭킹에서 매우 중요한데
왜냐하면 제가 말씀드렸듯이 사용자가
특정 검색어를 입력했을 때
클릭하게 만들고 싶은 글이어야 하며
의도는 그들이 원하는 것이
무엇인지 정의합니다. 예를 들어
미용실에 대해 검색하지만
실제로는 헤어스타일링 방법을
배우고 싶어하는 교육적 의도라면
교육적 의도를 충족시키고
헤어스타일링 방법을 가르쳐야지
헤어 제품을 판매하려고 하면 안 됩니다.
그래서 사용자가 정확히 왜
검색하는지 아는 것이 매우 중요하고
그 검색 의도를 정확히 충족시켜
원하는 것을 제공해야 합니다.
말씀드렸듯이 이는 단순히
블로그에 키워드를 무작정 넣는 것이 아니라
사용자들이 왜 그 키워드를 검색하는지
이유를 파악하고
검색 의도에 맞는 블로그 포스트를 작성하여
사용자의 니즈를 충족시키는 것입니다
다음 열은 클러스터에 포함시킬
키워드들이고
그 다음에는 주요 키워드가 있습니다
주요 키워드가 왜 필요한지는
나중에 설명해 드리겠습니다
지금은 신경 쓰지 마세요
이 템플릿은 아래 설명란에서
다운로드 받으실 수 있습니다
처음부터 시작할 필요 없이
템플릿을 다운로드하면 됩니다
이제 제가 알려드릴 건
클러스터, 검색 의도, 키워드,
주요 키워드를 올바르게 채우는 방법입니다
적절한 타겟 키워드를 찾기 위해서는
키워드 리서치가 필요한데
키워드 리서치를 할 때
보통 사람들은 타겟팅할 키워드를 찾기 위해
SEMrush 같은 비싼 앱에 50달러, 60달러, 100달러, 200달러를 쓰는데
사실 그럴 필요가 전혀 없습니다
제대로 하고 싶다면
Google Ads를 사용하면 되고
빠르게 하고 싶다면
ChatGPT를 사용하면 됩니다
두 가지 방법 모두
자세히 알려드리겠습니다
먼저 Google Ads를 사용한
정석적인 방법을 살펴보겠습니다
Google Ads 계정이 없다면
만들기가 매우 간단합니다
Google에서
Google Ads를 검색하고
새 계정을 만드세요
완전 무료이고
바로 사용할 수 있습니다
Google Ads에 들어가서
왼쪽의 도구와 키워드 플래너를 클릭하면
제가 보여드리는 것과
같은 페이지가 나타납니다
이제 같은 페이지에서
무료로 키워드 리서치를 하는
올바른 방법을 살펴보겠습니다
먼저 이
'새 키워드 찾기'를 클릭하세요
이 페이지에서는
Google에 여러분의 제품이나 서비스,
비즈니스의 주요 포인트를
나타내는 키워드들을
입력해야 합니다
예를 들어, 저처럼 AI 에이전시를 운영한다면
'automation'을 검색할 수 있죠
우리가 자동화 서비스를 제공하니까요
'AI'도 검색하고
'AI agents'도 검색하고
'BPA'(비즈니스 프로세스 자동화)도 검색하고
'RPA'(로봇 프로세스 자동화)도 검색하고
아마도
'n8n'도 검색할 수 있겠죠
이런 키워드들이 제 비즈니스를
전반적으로 정의하는 키워드들입니다
이렇게 키워드를 입력한 다음
'결과 가져오기'를 클릭하면 됩니다
그러면 Google Ads가
입력한 키워드와
관련된 다양한 키워드들을 보여주고
여러분의 제품이나 서비스,
비즈니스와 관련된 키워드들과
통계 자료를 제공합니다
이 데이터를 바탕으로
타겟 키워드를 선택하게 됩니다
이제 타겟팅할 최적의 키워드를 선택할 때
키워드를 선택할 때는 두 가지
주요 지표를 살펴봐야 합니다
첫 번째는 검색량, 즉 매월 얼마나 많은
사람들이 구글에서 검색하는지입니다
구글에서요.
당연히 아무도 검색하지 않는
키워드로 순위를 올리려고
시간을 낭비하고 싶지는 않겠죠
두 번째 지표는 경쟁률입니다
기본적으로 현재 얼마나 많은 사람들이
이 키워드로 순위를 올리려 하는지
구글 플랫폼을 거대한 경매장이라고
생각해보세요. 여기서 모든 사람들이
자신의 비즈니스나 서비스와
가장 관련있는 키워드에 대해
순위 경쟁을 하고 있죠
모두가 SEO 노력을 기울여
1위를 차지하려고 경매에 참여합니다
누군가 특정 키워드를
검색할 때 말이죠. 그래서 경쟁률이
매우 중요한데, 당연히
경매장에서 20명만 경쟁하는 것이
천 명이 경쟁하는 것보다
훨씬 좋겠죠
경쟁자가 적을수록
이기기가 더 쉽기 때문입니다
그래서 간단히 말하면
사람들이 자주 검색하는
높은 검색량의 키워드를 찾되
경쟁이 낮아서
순위를 올리기 쉬운
키워드를 찾아야 합니다
자, 다시 구글 애즈로 돌아가보면
보시다시피 여러 지표가 있는데
주목해야 할 두 가지 주요 지표는
월평균 검색량입니다
이는 매달 평균적으로 얼마나 많은
검색이 이루어지는지를 보여주고
두 번째는 경쟁률입니다
경쟁률이 낮으면서
월평균 검색량이 높은
키워드를 찾아야 합니다
월평균 검색량 열을 클릭해서
가장 많은 검색량부터 정렬했고
가장 적은 검색량 순으로
정렬했더니
이 키워드들은 모두 낮은 경쟁률을 보입니다
Deli는 높은 경쟁률을 보이고
AI 에이전트는 현재 매우 인기가 있어서
중간 정도의 경쟁률을 보이고
목록은 계속 이어집니다
약 2,000개의 키워드가 있어서
클러스터를 만들 수 있습니다
SEO를 처음 시작하는 경우
보통 롱테일 키워드나
조금 더 긴 키워드를 찾는 것이 좋습니다
또한 제품이나 서비스와
더 관련성이 높은 키워드를 찾으세요
이런 키워드들은 좀 더 길고
문장 형태를 띄지만
여러분이 원하는 순위에 도달하기 위해
직접적으로 관련된 것들입니다
이런 긴 키워드들은 일반적으로
방금 본 'AI'같은 짧은 키워드보다
순위를 올리기가 더 쉽습니다
그래서 말씀드린 대로
월평균 검색량이 충분히 높고
경쟁률이 낮은 키워드를
찾아서 가져오면 됩니다
이 키워드들을 모아서
클러스터로 만들고
곧 블로그 포스트를 작성할 겁니다
이걸 전체 마케팅 튜토리얼로
만들고 싶지는 않네요
그래서 너무 자세하게 설명하지는 않을 건데요
어떤 키워드를 선택해야 하는지
그리고 실제 클러스터를 선택하기 위해
후보 키워드를 어떻게 필터링해야 하는지
구글 애즈를 사용해서
하지만 만약 여러분이
이것을 자세히 알고 싶다면
아래 댓글로 남겨주세요
제가 정확히 어떻게 했는지
그리고 이 엑셀 시트를
어떻게 만들어서 정확한 키워드를
수학적 계산을 통해 선택했는지
실제 점수를 계산해서
추측 작업을 완전히 제거하는 방법을
자세히 설명해드리겠습니다
자, 이제 더 쉬운 방법을 알아볼 텐데
마케팅 경험이 많지 않다면
추천하는 방법입니다
인생의 모든 좋은 것들처럼
ChatGPT를 통한 쉬운 방법입니다
첫 번째로 할 일은
브라우저에서 ChatGPT를 여는 것입니다
제가 여기서 보여드리는 것처럼
그리고 이 프롬프트를 붙여넣으세요
이 프롬프트는 제가 공유해드릴 거니까
스크린샷 찍으실 필요 없습니다
모든 내용을
아래 설명란에 넣어두겠습니다
이 프롬프트는 기본적으로
제가 지금까지 설명한 모든 내용을
ChatGPT에게 알려주는 것입니다
SEO 랭킹을 위한
올바른 SEO 전략이 무엇인지
어떤 키워드가 좋은지
그리고 그 키워드를 어떻게 찾아내야 하는지
나중에 천천히 읽어보시면 되는데
기본적으로
자주 묻는 질문을 찾고
그 질문들을 사용해서
키워드를 추출하고
그 키워드들을 사용해서
클러스터를 만들고 그 다음
핵심 게시물을 만드는 방식입니다
그리고 ChatGPT에게
따라야 할 형식을 알려줍니다
핵심1 클러스터1 키워드, 클러스터2
그리고 핵심2 클러스터1, 클러스터2
핵심3 등으로 이어지는 방식이죠
여러분이 변경해야 할 부분은
아래쪽의 'continue' 부분입니다
새로운 클라이언트를 맡았다고 가정하고
제가 ChatGPT의 새 고객인 것처럼
클라이언트 이름은 여러분의 회사 이름입니다
예를 들어 저는 제 회사 이름인
Kexa AI를 입력할 거예요
그리고 제공하는 제품이나 서비스는
자동화 서비스입니다
타겟 고객을 위한 서비스죠
여기에 타겟 고객을 입력하세요
제 경우에는 소규모 비즈니스입니다
그리고 엔터를 누르면 됩니다
마지막 부분만 수정하면 되는데
이렇게 하면 프롬프트가
여러분의 비즈니스에 맞춰집니다
만약 ChatGPT 유료 버전을 사용할 수 있다면
reasoning 모델을 사용하는 것을
정말 추천드립니다
reasoning 모델이
이런 복잡한 문제를 다룰 때
ChatGPT가 여러 단계를 거쳐
생각해야 하는 경우에 훨씬 더 좋거든요
보시다시피 이것이
첫 번째 핵심 게시물입니다
중소기업 자동화에 대한 궁극적인 가이드
첫 번째 클러스터는 비즈니스 자동화 기초
그리고 아래에 이러한 키워드들이 있습니다.
두 번째 클러스터는 AI 기반 자동화의 이점
그 다음 KX AI 솔루션, 비즈니스 자동화 구현
비즈니스에서의 자동화 구현
그리고 두 번째 메인 포스트는
중소기업에 적합한 자동화 서비스 선택하기
중소기업의 미래가 다음 메인 포스트이고
이런 식으로 계속 이어집니다.
ChatGPT에게 계속해서 더 많은 내용을
생성하도록 요청할 수 있고
마음에 드는 것은 유지하고
마음에 들지 않는 것은 제거할 수 있습니다.
이제 동일한 차트를 계속 이어서
제가 제공한 두 번째 프롬프트를
붙여넣기 해주시면 됩니다.
이 프롬프트는 기본적으로
위에서 받은 답변을
메인 포스트, 클러스터, 키워드를
적절한 형식으로 재구성하여
엑셀 시트 템플릿에 바로
복사하여 붙여넣을 수 있도록
형식을 맞춰줄 것입니다.
앞서 보여드린 엑셀 시트 템플릿에
이제 이것을 실행해보고
출력이 어떻게 나오는지
정확히 보여드리겠습니다.
사실 이 두 번째 프롬프트에는
추론 모델을 사용할 필요가 없지만
상관없습니다. 이미 했으니까요.
자, 이제 엑셀에 복사하여 붙여넣기 할 수 있는
정확한 테이블 형식이 나왔습니다.
이제 복사해서
맨 아래로 가서 Ctrl+C로 복사하고
클러스터 템플릿을 다시 열어서
붙여넣기만 하면 됩니다.
이게 전부입니다. 이제 클러스터와
각 클러스터의 의도,
그리고 키워드들이 모두 있습니다.
형식이 약간 잘못되어 있어서
텍스트를 감싸면
더 명확하게 볼 수 있습니다.
이것이 이 클러스터의 의도이고
비즈니스 자동화 기초가 있고
그 다음에는
타겟팅하고자 하는 키워드들이 있습니다.
키워드들은 쉼표로 구분되어 있고
주요 키워드도 있습니다.
ChatGPT가 이것도 제공해줬기 때문에
전혀 생각할 필요가 없습니다.
그리고 이 방에 있는 코끼리를 다루자면,
키워드 리서치를 수동으로 해야 한다고
불평할 사람들을 위해 말씀드리면
저는 의도적으로 이 과정을
자동화하지 않기로 했습니다.
솔직히 그렇게 반복적이지 않기 때문입니다.
키워드 리서치를 매일
이틀에 한 번, 삼일에 한 번,
심지어 매주 할 필요도 없고
직접 참여함으로써
부가적인 이점도 얻을 수 있습니다.
자신만의 통찰력을 더하고
어떤 키워드와 클러스터를
자동화에 포함시킬지 선택할 수 있죠.
네, 자동화할 수는 있었지만
자동화하지 않는 것이 더 유익합니다.
자동화하는 것보다 말이죠.
잊지 마세요, 여러분
자동화는 투자 수익에 관한 것입니다.
많은 시간을 들여서
약간의 시간을 절약하려 한다면
시간 낭비일 뿐입니다.
적은 노력으로 많은 시간을 절약하는 것이 목표입니다.
엄청난 시간을 절약하는 것이 목표입니다.
이 점을 잊지 마세요.
이제 지루한 마케팅 설명은 끝났으니
재미있는 부분으로 넘어가겠습니다.
이번 섹션에서는
여러분께 정확히 보여드리겠습니다.
전체 SEO 캠페인을 어떻게
주당 1달러 미만으로 자동화할 수 있는지 설명하겠습니다.
말씀드렸듯이 두 가지 유형의
블로그 포스트가 있습니다. 첫 번째는
키워드를 타겟팅하는 클러스터 SEO
포스트이고, 두 번째는
트렌드 포스트로 최신 트렌드 키워드를
타겟팅합니다. 이는 주로
최근에 발생한 뉴스와
사람들이 검색하는 내용입니다.
먼저 클러스터 SEO
포스트에 대해 이야기해보겠습니다.
클러스터 SEO 포스트의 최종 결과가
어떤 것인지 보여드리겠습니다.
이것은 2월 3일에
제 웹사이트에 게시된 포스트입니다.
멀티 에이전트 시스템: 비즈니스를 위한
AI 에이전트 확장 종합 가이드
보시다시피 상단에 이미지가 있고
그 다음에 H1 헤더 또는 제목이 있습니다.
그리고 핵심 요약 섹션이 있는데
이는 이 글의 결론을
정확히 요약해서 보여줍니다.
그리고 예상 읽기 시간도 표시되어 있죠.
이 글은 8분이 소요됩니다.
목차 섹션이 있어서
원하는 항목을 클릭하면
해당 섹션으로 바로 이동할 수 있습니다.
블로그 포스트의 정확한 위치로 이동하고
intro 제목 1과 작은 부제목들이 있습니다.
그리고 제목 2도 있고
이런 식으로 계속됩니다.
링크들도 많이 있는데, 한번 확인해볼까요?
예를 들어 이것은 내부 링크입니다.
제 다른 블로그 포스트로 연결되죠.
이것도 한번 볼까요?
이것은 외부 링크로 연결됩니다.
smth hos.com이라는 웹사이트로 이동하네요.
계속 진행하면서 같은 방식으로
내부 링크와
외부 링크가 있고, H1 헤더와
제목과 부제목들이 있습니다.
그리고 결론 섹션과 행동 유도
섹션이 있고 이게 전부입니다.
보시다시피 최종 결과는
정말 훌륭해 보이고
믿기 힘들겠지만 이 포스트를 위해
자동화를 켜고 놔두는 것 외에는
아무것도 하지 않았습니다.
자, 이제 이것을 어떻게 구현하는지
살펴보겠습니다. 이 자동화는
매우 선형적이고 순차적으로 보이는데
이는 의도적으로 설계한 것입니다.
많은 분들이 궁금해하실 텐데요.
왜 AI 에이전트를 사용해서
전체 리서치를 하지 않았냐고
또 왜 AI 에이전트로
내부와 외부 링크 작업을 하지 않았냐고요.
실제로 저는 제대로 작동하는
자동화를 만들고 싶었기 때문입니다.
수천 번의 클릭을 얻는
자동화가 아니라
계속해서 실행할 수 있고
자동으로 블로그를 포스팅하면서
SEO가 점점 더 좋아지는
그래서 솔직히 때로는 전통적인
규칙 기반 자동화가 훨씬 더 효과적입니다.
여러 AI 에이전트들이
무작위로 여러 작업을 하는 것보다
연구를 수행할 AI 에이전트를 두고
내부 및 외부 링크를 담당할 에이전트를 두고
또 다른 에이전트가
제목이나 메타 설명 등을
처리하도록 하는 것은
이론적으로는 99%의 경우에 작동할 수 있지만
100% 완벽하게 작동하지는 않을 겁니다
그리고 저는 매번
확인하고 싶지 않습니다
게다가 사용될 토큰의 양도
훨씬 더 많아질 것이고
자동화를 실행하는 데 들어가는
주간 비용 측면에서도
더 비싸질 것입니다
그래서 저는 의도적으로 이 자동화에서
AI 에이전트를 사용하지 않기로 했습니다만
원하신다면 AI 에이전트를
쉽게 추가할 수 있습니다
하지만 실제로는 에이전트가 필요하지 않아서
시간을 낭비하지 않겠습니다
자, 이제 시작해보죠. 모든 자동화에는
자동화를 시작하는 트리거가 필요합니다
자동화에게 '지금 실행해야 해'라고
알려주는 것이죠. 이 자동화에서 사용하는
트리거는 당연히
스케줄 트리거입니다
자동화가 주기적으로 실행되기를 원하기 때문이죠
매주 또는 2주마다,
혹은 3주마다
블로그 포스팅을 얼마나 자주
하고 싶은지에 따라 다릅니다
스케줄 트리거 노드를 클릭하면
07 * * 4로 설정된 것을 볼 수 있습니다
이것은 매주 목요일
오전 7시를 의미합니다
월화수목 중 네 번째 날인 목요일
매주 목요일 오전 7시에
이 자동화가 실행되어
포스팅을 하게 됩니다
만약 오후 9시로 변경하고 싶다면
21을 입력하면 됩니다
그리고 화요일로 변경하려면
* * 2를 입력하면 됩니다
정말 간단하죠
원하는 날짜와 시간으로
자유롭게 변경하실 수 있고
또는 특정 간격으로
2일, 3일, 4일마다
주기적으로 설정할 수도 있습니다
하지만 저는
특정 요일과 시간을 정해서
매주 포스팅하는 것을
추천드립니다
사실 매주
수천 개의 블로그 포스트를 올릴 필요는 없고
주 2회 정도가 적당하다고 생각합니다
3회도 괜찮지만
구글에 스팸처럼 보이지 않도록
주의해야 합니다
자, 이제 계속 진행해보죠
이 자동화의 첫 번째 구성요소는
어떤 주제로
블로그를 포스팅할지 정하는 것이고
이는 곧
특정 키워드 클러스터에 대한
정보를 검색하는 것입니다
우리가 함께 만든 엑셀 템플릿을
가져와야 합니다
클러스터 의도 키워드와
주요 키워드가 있는 엑셀 시트를
Google Sheets로 옮기는 것이 좋습니다.
N8N과 연동할 때 작업하기가 더 쉽거든요.
그래서 복사해서 구글 시트에
붙여넣기를 하시고
여기에 추가로 한 개의 열을 더 만드는데
'completed'라는 열을 추가하세요
completed는 단순히 의미하는 것이
이 클러스터에 대한 블로그 포스트를 작성했는지 여부입니다
예를 들어 첫 번째는 yes로 표시해보죠
이미 그 블로그 포스트를 작성했다고 가정하고
나머지는 no로 표시하면 됩니다
나머지 항목들은 전부 no로 표시하고
쭉 아래로 내려가면서 no를 입력하세요
나머지 모든
항목들에 대해서요
자, 이렇게 하면 간단하게 끝납니다
이제 자동화로 돌아가보죠
여기서 목표는
특정 블로그 포스트에 대한 정보를
클러스터 정보를 가져와서 얻는 것입니다
클러스터 의도 키워드와
주요 키워드, 그리고 완료 여부를
가져와야 하는데
이를 위해 Google Sheets 노드를 사용합니다
먼저 인증을 하고
Google Sheets API에 연결해야 하는데
이건 매우 간단합니다
자세히 설명하진 않겠지만
구글 계정으로 로그인하고
OAuth 인증만 하면 됩니다
그리고 나서
'get row'를 선택하고
정보를 가져올 시트를 선택하세요
여기서는 'keywords new'라는
시트를 사용하는데
이건 데모용이에요
실제 블로그 포스팅에 사용하는 건 아닙니다
'keywords new'로 변경하면
이게 제 구글 시트가 되고
그 다음 페이지를 선택하라고 할 겁니다
여기서 보시면
페이지 이름이 'sheet one'인데
이건 필러 포스트에 따라 변경할 수 있어요
이건 하나의 필러 포스트에 대한 것이고
만약 다른 필러 포스트가 있다면
새로운 시트를 추가하고
필러 포스트라고 이름을 붙이면 됩니다
필러 포스트 2번이라고 하죠
두 번째 필러 포스트의
이름을 붙이고
첫 번째는 필러 포스트 1번이 되는 거죠
이것들은 첫 번째 필러 아래의 클러스터들이고
나머지는 두 번째 필러 아래의
클러스터들이 되는 겁니다
첫 번째 필러를 선택하면 되는데
필러 포스트 1번을 지금 사용하고 있죠
나머지는 그대로 두고
실행해보면
어떻게 되는지 보여드리겠습니다
무슨 일이
일어나는지 자, 간단하죠
아니 잠깐, 우리가 너무 많은 행을
가져왔네요
한 행만 가져오고 싶은데
옵션을 빠르게 추가해보죠
'첫 번째 일치하는 행만 반환'으로 설정하고
다시 한번 시도해볼게요
무슨 일이 있었는지 알겠네요
아, 이유를 알았어요
구글 시트를 변경했더니
필터링도 제거됐네요
기본적으로 목표는
다시 돌아가서 보면
첫 번째 행만 가져오는 거예요
아직 완료되지 않은 것을 가져와야 하므로
여기에 필터를 추가할 건데요, 필터 추가하고
completed 컬럼을 선택하고
값을 'no'로 설정합니다.
첫 번째로 일치하는 항목만 가져올 거예요
completed 컬럼의 값이
아직 블로그 포스팅이 되지 않은 'no'인 것만요
다시 한번 시도해 보겠습니다
이제는 확실히 작동할 거예요
자, 보세요. 잘 되네요
보시는 것처럼 3번째 행이
멀티 에이전트 시스템 복잡한 상호작용이군요
기타 등등이 있네요
1, 2, 3번 행 중 첫 번째 'no'인 것
완벽해요. 이제 블로그에 대한
정보를 가지고 있고
클러스터는 단순히 그 클러스터의 이름이고
의도도 있고
클러스터 내의 키워드들도 있고
주요 키워드도 정의되어 있죠
아주 간단하죠. 이제 우리가 하고 싶은 것은
포스트에 대한 예비 계획을 세우는 거예요
그래서 이 예비 계획을 사용해서
포스트를 리서치할 수 있도록
예비 계획은 말 그대로
OpenAI 모듈을 사용할 거예요
아주 간단한데요, 이런 작업에는
추론 모델을 사용하는 게 좋아요
추론 모델이
계획을 세울 때 더 잘 작동하거든요
그래서 저는 OpenAI 0.1 Mini를 선택했어요
Open Router를 통할 필요는 없고
OpenAI API 키로 직접 할 수 있어요
하지만 전 Open Router를 통해 하기로 했죠
크게 상관은 없습니다
그리고 OpenAI API 키를 n8n에 연결하는 것도
매우 간단한데
OpenAI 플레이그라운드에 가서
새로운 API 키를 받고
여기에 복사 붙여넣기만 하면 됩니다
이렇게 오셔서
여기에 붙여넣기만 하면 돼요
아주 간단하죠. 그리고 제가
프롬프트도 정의해놨는데
바꿀 필요는 없을 거예요
당신은 팀의 일원으로
블로그 포스트를 작성하는데
각 블로그 포스트 프로젝트에는
키워드 리스트와 검색 의도가 제공되고
키워드에 대해 설명했죠
검색 의도와 주요 키워드가
제가 설명한 것처럼
그리고 키워드 리스트와 검색 의도가 주어지면
블로그 포스트의 목적을 이해하고
포스트 흐름의 사고 과정을 파악하고
예비 계획을 세우는 게 당신의 일이에요
포스트에 대한 예비 계획을 세우고
그리고 출력이 어떻게 보여야 하는지
구체적인 지침을 제공했어요
출력이 어떻게 보여야 하는지에 대해
그리고 물론
이전 노드에서 키워드들과
검색 의도, 주요 키워드를
첨부했죠. 이게 프롬프트의 모습이에요
이전 노드의 정보와 함께요
이제 실행해 보겠습니다
오래 걸리지 않을 거예요... [시간 경과]
자, 됐네요. 이제
포스트에 대한 예비 계획이 나왔어요
예비 블로그 포스트 계획: 멀티 에이전트 시스템
소개 등등이 있네요
이제 이걸 잠시 놔두고
이제 우리가 할 일은
게시물에 대한 예비 계획을 가져와서
Perplexity를 사용해 리서치를 할 겁니다
혹시 Perplexity에 대해 모르시는 분들을 위해 설명하자면
Perplexity는 제가
매일 사용하는 도구입니다
정말 추천드리니 지금 바로 시작해보세요
사실 Perplexity는 전체 기능을 설명하려면
별도의 영상이 필요할 정도입니다
어떻게 작동하는지 자세히 설명하려면
곧 영상을 하나 더 만들 것 같은데
일단은 저를 믿고
Perplexity를 검색해서
사용해보세요. 정말 놀라울 거예요
지금 빠르게 Perplexity가
어떻게 작동하는지 보여드리겠습니다
기본적으로 리서치 도구인데
구글 크롬에서 검색하듯이
특정 정보를 찾을 수 있고
Perplexity는 이를 더 쉽게 만들어주죠
상위 링크들을 요약해서
모든 정보를 종합하고
그 요약된 정보를
직접 찾아보지 않아도
질문에 대한 답을 바로 얻을 수 있습니다
예를 들어, 'Deep Seek가 무엇인가요?'라고
검색하면, 바로 이렇게 검색이 됩니다
보시다시피 Perplexity는
여러 출처와 링크들을 보여주고
찾아본 모든 링크들을
종합해서
인터넷에서 찾은 답변을 제공합니다
인용문도 포함해서요
인터넷 검색과 링크 수집에
정말 훌륭한 도구이고
인용문 작성에도 아주 유용합니다
그래서 우리가 여기서
이것을 사용하는 거죠
Perplexity 연결 방법을
보여드리겠습니다. 아주 간단한데요
HTTP 요청 노드를 사용하면 됩니다
참고로 말씀드리면
이걸 하나하나 다 만들어서
제가 설정한 대로 구성하시는 건
추천하지 않습니다
그냥 다운로드 받으시고
원하시면 수정해서 사용하시면 됩니다
설명란에서 다운로드하시고
모든 기능을
사용하실 수 있습니다
시간 낭비하지 마시고
지금 보여드리는 건
자동화 과정의 흐름을 이해하시라고 하는 거예요
HTTP 요청 모듈이나
노드가 필요한데
POST 요청을 사용합니다
Perplexity에 검색 쿼리를 보내고
검색하게 하기 위해서죠
Perplexity에 데이터를 보내야 하므로
POST 요청을 사용해야 합니다
정의해야 할 URL은
Perplexity 채팅 완성 URL입니다
여기 보이는 이 URL이죠
그리고 Perplexity API에
인증하고 연결해야 하는데
방법을 모르시면
아주 간단합니다
Perplexity로 돌아가서 이 아이콘을
클릭하시고
계정 만드신 후 설정에서
API 키가
바로 보일 겁니다. API 키를 복사해서 돌아오시면 됩니다
인증 설정이 일반 자격 증명 유형이고
헤더 인증이 설정되어 있는지 확인하세요
그 다음 클릭해서 들어가면
이름을 'authorization'으로 설정하고
헤더 값을 'Bearer' 스페이스로 설정합니다
그 다음에는 API 키가 들어갑니다
여기에 본인의 API 키를 넣으세요
이름은 'authorization'으로 하고
값은 'Bearer 스페이스 API 키'로 설정하면 됩니다
저는 이것을 저장하지 않고 넘어가겠습니다
다음으로 넘어가서
요청 본문이 활성화되어 있는지 확인하고
요청은 JSON을 사용해서 보내야 하며
이런 형태의 요청이 됩니다
요청의 세부 내용은 생략하겠지만
두 가지 중요한 요소가 있습니다
첫 번째는 선택할 모델입니다
두 가지 중요한 구성 요소 중
첫 번째는 사용할 모델입니다
저는 확실히
Sona Pro를 추천드립니다
Sona Pro는 Perplexity의 변형 버전으로
더 심층적인 리서치를 제공하고
두 배 더 많은 소스와
링크, 하이퍼링크를 제공합니다
정보를 찾아볼 수 있는
일반 Sona 모델은
5개의 인용만 제공하는 반면
Sona Pro는 10개를 제공합니다
우리는 블로그 포스트를 만들고 있고
외부 링크가 필요하기 때문에
가능한 한 많은 링크를 얻고 싶습니다
그래서 모델을 Sona Pro로
설정해야 합니다
그리고 시스템 프롬프트를 정의했는데
이건 신경 쓰지 않으셔도 되고
사용자 프롬프트는
실제로 검색하고 싶은
검색어가 됩니다
블로그 글 작성을 위한
리서치를 도와달라고 했고
다음 블로그 계획의
각 제목에 대한 심층 연구를 요청했습니다
이전 노드의 계획을 입력했어요
이렇게 입력하고
Perplexity에서 어떤 결과가 나오는지 보겠습니다
자, 여기 Perplexity가 제공한 10개의 링크가 있고
리서치를 위한
실제 연구 내용은
컨텐츠에 있습니다
다중 에이전트 시스템 소개와
인용이 포함된
모든 정보가 여기 있습니다
앞서 봤던 것과 똑같이
완벽합니다
자동화의 리서치 부분은 여기까지이고
다음으로 포맷을 수정하는
노드가 있습니다
여기서 보시면 알 수 있듯이
Perplexity는 소스를 숫자로 인용합니다
2번, 3번, 4번처럼요
그리고 1번은 이 링크,
2번은 이 링크,
3번은 이 링크 이런 식으로
AI가 작업하기에는
외부 링크 처리가 좀 어려워서
노드를 하나 만들었습니다
숫자 1, 숫자 2를
실제 링크로 변환하는 노드입니다
예를 들어 숫자 1 대신
'Source HTTP...' 형식으로
실제 URL을 표시합니다
URL 자체를 수정하는 방법인데,
이 부분은 신경 쓰지 않으셔도 됩니다.
그리고 실제 블로그 포스트 플랜 노드가 있는데,
이것은 블로그 포스트에 대한 상세한 계획을 제공합니다.
한번 살펴보도록 하겠습니다.
말씀드린 대로 이것은 또 다른 OpenAI 모듈입니다.
당연히 말씀드렸듯이
n8n에서는 OpenAI 노드라고 부르는데요.
제가 말씀드린 것처럼, 가능한 최고의 추론 모델을 사용하시길 권장합니다.
저는 O1 프리뷰 모델이나
DeepSeek R1 모델을 추천드립니다.
저는 DeepSeek R1을 사용했었는데,
며칠 정도 써봤습니다만,
DeepSeek R1의 문제점은
자주 오류가 발생하고
실행하는 데 시간이 오래 걸린다는 점입니다.
그래서 이 데모와 프레젠테이션을 위해
O1 프리뷰를 사용하기로 했습니다.
원하신다면 DeepSeek R1을 사용할 수 있는데,
정말 뛰어난 모델입니다.
OpenAI 모델을 사용하시려면,
플레이그라운드에서 OpenAI API 키를
입력하시면 됩니다.
간단히 연결될 것입니다.
그리고 사용자 메시지에서
제가 정의한 내용을 보여드리겠습니다.
당신은 세계적 수준의 블로그 포스트를 작성하는 팀의 일원입니다.
각 블로그 포스트 프로젝트에서
키워드 리스트와 주요 키워드,
검색 의도 연구 결과,
그리고 예비 블로그 포스트 계획이 제공됩니다.
각 입력값의 정의를 설명드리면,
키워드, 검색 의도, 연구 결과,
예비 계획이 있습니다.
주요 키워드와 함께
모든 것을 다시 설명했습니다.
그리고 이 정보를 바탕으로
상세한 블로그 포스트 계획을 만들어야 합니다.
출력에는 블로그 포스트 계획이 포함되어야 하고,
특정 포맷을 따라야 합니다.
원하는 방식으로 출력을 얻기 위해
구체적인 지침을 제공했습니다.
직접 읽어보실 수 있지만,
이 프롬프트에서 많이 벗어나지 않는 것이 좋습니다.
시간을 들여 최적화했기 때문에
꽤 좋은 프롬프트라고 생각합니다.
이전 노드에서 전달할 정보로는
키워드, 검색 의도, 예비 계획, SEO 연구 결과,
주요 키워드가 있습니다.
프롬프트 안의 모든 내용을
OpenAI에 전송하여
블로그 포스트의 적절한 계획을 받습니다.
전달하고 싶은 정보에 대해
이전 노드에서 키워드,
검색 의도, 예비 계획,
SEO 연구 결과, 주요 키워드 등
프롬프트 내의 모든 것을
OpenAI에 보내서
블로그 포스트에 대한
적절한 계획을 받아야 합니다.
블로그 포스트...
잠시 후... O1 프리뷰는 응답이 느린 모델입니다.
특히 이런 복잡한 프롬프트를 주면
생각하는 시간이 필요해서
시간이 좀 걸립니다.
생각할 시간이 필요하고
시간이 걸리죠.
자, 여기 출력이 나왔네요.
상세한 블로그 포스트 계획이 나왔고,
필요한 정보가 다 있습니다.
좋습니다. 이제 이 블로그 포스트 계획을
카피라이팅 노드에 전달하여
실제 블로그 포스트를
작성하도록 할 것입니다.
이제 블로그 포스트를 자동으로 작성하게 됩니다.
Anthropic의 Claude 3.5 Sonet을 사용하는 것을 추천드립니다.
이 노드에는 Claude 3.5 Sonet이 좋은데요,
아시다시피 Claude 3.5 Sonet은
카피라이팅에서 훨씬 더 자연스러운 문체를 구사합니다.
AI가 쓴 것처럼 보이지 않고
사람이 쓴 것처럼 들리죠.
그래서 카피라이팅 작업에
매우 효과적입니다.
제가 말씀드린 대로 3.5 Sonet을 사용하시거나
원하신다면 GPT 4.0도 좋은 선택입니다.
하지만 절대로 추론 모델은 사용하지 마세요.
Claude 3.5 Sonet에 연결하시려면
Anthropic 웹사이트를 통해 직접 연결하거나
제가 한 것처럼 Open Router를 통해
연결하실 수 있습니다.
매우 간단한데요, API 키를 검색하시면
바로 찾으실 수 있습니다.
정말 간단하고
직관적이라 자세한 설명은 생략하겠습니다.
정확한 과정은 설명하지 않겠지만
매우 간단하니 Claude 3.5 Sonet에
직접 연결해 보세요.
그리고 나서 사용자 프롬프트를 정의할 수 있습니다.
제가 정의한 사용자 프롬프트는
블로그 포스트의 형식을 지정한 것입니다.
원하시는 형식이 따로 있다면 자유롭게 변경하셔도 됩니다.
하지만 제가 여기서 사용한 방식이 꽤 효과적이라고 생각합니다.
제가 설정한 프롬프트를 보면
'당신은 최고 수준의 블로그 포스트를 작성하는 팀의 일원입니다.'
'팀의 최고 카피라이터이며'
'실제 블로그 포스트 작성을 담당하고 있습니다.'
'각 새로운 블로그 포스트 프로젝트에 대해'
'상세한 계획과 연구 결과를 제공받습니다.'
'당신의 임무는 이 상세 계획에 따라'
'블로그 포스트를 작성하는 것입니다.'
'블로그 포스트는 반드시 계획을'
'단계별로 정확하게 따라야 합니다.'
'짧은 단락을 사용하고, 글머리 기호를 활용하며'
'불필요한 내용을 피하고, 상세하게 작성하며, 키워드를 포함하세요.'
전체 프롬프트를 다 설명하진 않겠지만
꽤 효과적인 프롬프트입니다.
블로그 포스트 길이는 2,500단어로 지정했고
초등학교 5학년 수준의 읽기 난이도를 요청했습니다.
이 모든 설정을 마친 후
이전 노드에서 얻은 상세 계획과
연구 자료에 대한 접근 권한을 주고
블로그 포스트를 작성하도록 했습니다.
어떤 결과가 나왔는지 확인해볼까요?
자, 여기 최종 블로그 포스트가 있습니다.
'멀티 에이전트 시스템의 부상:'
'기업을 위한 완벽 가이드'
'오늘날 빠르게 진화하는 AI 환경에서'
'멀티 에이전트 시스템은 조직들이'
'복잡한 문제를 해결하는 방식을 변화시키고 있습니다.'
'이러한 정교한 에이전트 네트워크는...'
등등의 내용이 이어집니다.
최종 블로그 포스트는 곧 보여드리겠습니다.
실제 출력이 어떻게 나왔는지
보여드리겠지만, 일단 이 노드가
잘 작동하고 훌륭한 결과를 만든다는 점만 알아두세요.
다음으로 넘어가서, 이제 무슨 일이 일어나는지 보겠습니다.
다음으로는 내부 링크를 정리해야 합니다.
연구 자료를 살펴보고 링크를 수정한 다음
블로그 작성자에게 전달했을 때
보셨듯이, 실제 블로그에
모델에게 링크를 유지하도록 지시했습니다.
외부 링크를 그대로 두어서, 여기를 보시면
아마 외부 링크가 보일 텐데요
자, 여기 있네요. IBM으로 연결되는 링크입니다
외부 링크는 이미 정리가 되어 있고
이제 우리가 해야 할 것은
내부 링크를 정리하는 것입니다
이것이 좋은 블로그 포스트의 두 번째로
중요한 구성 요소라고 전에 말씀드렸죠
이를 위해서 제가 빠르게
다른 구글 시트를 보여드려야 할 것 같은데
이전 포스트라고 불렀던 시트가 있는데
아, 죄송합니다. 이전 포스트가 아니라
완료된 키워드라고 부르는 시트입니다
기본적으로 이 구글 시트는
여러분에게도 엑셀 템플릿으로
제공해 드릴 예정인데요
기본적으로 이것은
제가 이전에 작성했던 블로그 포스트를 기록하는
엑셀 시트입니다
블로그 포스트를 작성할 때마다
블로그 제목과
포스트에 포함된 키워드를 기록하고
또한 블로그 포스트의
요약도 함께 기록합니다
이를 통해 블로그의 요점이나
주제를 쉽게 이해할 수 있고
블로그 포스트에 접근할 수 있는
URL도 함께 저장합니다
보시다시피 지금까지 꽤 많은
약 39개의 블로그를 작성했는데요
이는 몇 달에 걸쳐 작성된 것이고
솔직히 말씀드리면 완전히 일관적으로
작성하지는 못했습니다
하지만 블로그를 포스팅할 때마다
제목, 키워드, 그리고 요약을 여기에 기록하고 있죠
자, 이제 내부 링크를 어떻게
구현할 것인지 설명드리겠습니다
매우 간단하고 명확한 방법인데요
이전 포스트의 모든 정보를 가져와서
현재 블로그 포스트의 어느 부분이
다른 블로그 포스트와 관련이 있는지
판단하는 데 이 정보를 사용합니다
그리고 적절한 내부 링크를
제공하게 되죠
이전 포스트 모드를 보시면
완료된 키워드에서 모든 행을 가져오도록
설정했음을 확인할 수 있습니다
이 단계를 테스트하면 매우 간단한데
완료된 키워드에서 모든 행을 가져올 것입니다
자, 보시면 매우 간단하죠
모든 행을 가져왔고
말씀드린 대로 38개의 블로그 포스트가 있습니다
38개의 항목이 있고, 이제 저는
이 정보들을 하나로 통합할 겁니다
모든
정보를 하나의 항목으로 통합하는 거죠
OpenAI 노드를 38번 실행하지 않기 위해서입니다
모든 데이터가 하나의 큰 덩어리가 되면
그 데이터를 가져와서
OpenAI 노드나 대규모 언어 모델에
전달할 것입니다
그리고 OpenAI 노드에게
내부 링크 기회를 분석하고
실제로 링크를 만들어달라고 요청할 겁니다
여기서는 추론 모델을 사용했는데
여러분도 이런 상황에서는
추론 모델을 사용하시는 걸
추천드립니다
조금 더 복잡한 작업이라 모델이
생각을 해야 하거든요. 저는 비용을 줄이기 위해
GPT-3.5를 사용했지만, 원하신다면
GPT-4나 다른 모델을 사용하실 수 있습니다
GPT-3.5나 다른 모델도 사용 가능하죠
자, 이제 우리가 정의한
사용자 프롬프트를 살펴보겠습니다.
당신은 최고 수준의 블로그 포스트를
만드는 팀의 일원이며,
블로그 포스트 간의
내부 링크를 담당하고 있습니다.
각 블로그 포스트가 도착하면,
이전에 게시된 블로그들을 검토하여
최소 5개의 내부 링크를 만들어야 합니다.
최적의 내부 링크를 선택하기 위해
이전 블로그 포스트를 읽고
키워드를 검토해야 합니다.
관련성이 높지 않다면 링크하지 마세요.
그리고 제가 정확히 정의했죠.
내부 링크 기회를 어떻게 분석할지
그리고 현재 블로그 포스트도 제공했습니다.
이것이 우리가 현재 게시하는 내용이고
또한 이전 포스트들의
모든 정보를 제공했습니다.
모든 키워드, 요약, 블로그 제목을
모아서 제공했기 때문에
이전 포스트와 현재 포스트를 비교하여
어떻게 연결할 수 있는지 알 수 있죠.
이전 포스트와 현재 포스트를 보고
어떻게 연결할 수 있는지 파악합니다.
이제 실행해 보겠습니다만,
프롬프트의 중요한 부분이 하나 있는데,
AI 모델에게 이전 블로그 포스트는
반환하지 말고 현재 블로그 포스트에
내부 링크만 추가하라고 지시했습니다.
현재 블로그 포스트에 내부 링크만 추가하고
다른 정보는 변경하지 말라고 했죠.
정보를 추가하거나
삭제하지 말고
내부 링크 기회만
추가하라고 했습니다.
자, 보시면
여기 https로 시작하는 링크들이 있을 겁니다.
https
kx를 보면... 잠시 후에...
드디어 내부 링크를 찾았네요.
kx.a로 연결되는데, 이것은
'멀티에이전트 시스템 비즈니스 도입 2편'
이라는 블로그 포스트로 연결됩니다.
그리고 실제 블로그 포스트를 찾는데
2분 정도 스크롤해야 했던 이유는,
옆으로 스크롤해야 하는 것은 차치하고,
제가 AI 모델에게 특별히
내부 링크를 강제하지 말라고 했기 때문입니다.
이렇게 한 이유는
구글이 실제로 말하길,
관련성 없는 콘텐츠들을
무작정 링크로 연결하면
실제로 SEO에
도움이 되지 않고
많은 링크를 연결하려고
하는 것은 오히려 SEO를
해치게 됩니다.
그래서 실제로 연결되는 링크들이
정당한 것인지 확인하고
무작위로 내부 링크를 만들지 않도록 했습니다.
그래서 내부 링크가 많지 않은 것이죠.
계속 진행해 보겠습니다.
내부 링크가 정리되고
외부 링크도 정리되고
블로그 포스트가 작성되면
이제 작성된 마크다운 형식의
블로그 포스트를 HTML 형식으로 변환해야 합니다.
웹 페이지로 실제 게시할 수 있도록 말이죠.
예를 들어 이 블로그 포스트를 보면
단순한 마크다운 형식이 아닌
HTML 형식으로 되어 있습니다.
비전문가분들을 위해 설명드리면, HTML은
웹페이지를 만드는 프로그래밍 언어입니다.
프로그래밍 언어인데요
웹 페이지를 만드는 데 사용되는 언어입니다
하이퍼텍스트 마크업 언어라고 하는데
기본적으로 이것은
웹 페이지를 인터랙티브하게 만들고
멋지게 보이도록 해주죠
이 노트에서 말씀드린 대로 HTML로 변환할 건데
추론 모델도 사용하려고 합니다
저는 OpenAI의 프리뷰 버전을 사용했고
여기서 정의한 프롬프트가
실제로 매우 중요한데요
여러분이 사용하는 워드프레스
웹사이트 템플릿과
블로그 포스트 스타일에 따라 변경하실 수 있습니다
저는 기본적으로 블로그 포스트에
특정 요소들을 포함하도록 지정했는데
말씀드린 것처럼
주요 핵심 내용 섹션이나
예상 읽기 시간
목차를 넣고 싶었고
헤더와 서브헤딩의 형식을 지정하고
이런 식으로 원했습니다
출처는 하이퍼링크로 넣고 싶었는데
이건 제가 선호하는 블로그 포스트 스타일이에요
원하시면 변경하실 수 있고
원하는 대로 수정하실 수 있습니다
수정하고 싶으시다면
ChatGPT 인터페이스에서 직접 대화하시면서
이렇게 블로그 포스트가 보였으면 좋겠다고
말씀하시면 됩니다
템플릿이나 HTML 템플릿을
제공해달라고 하거나
마크다운을 HTML로 변환하는 프롬프트를
요청하시면 됩니다
혼란스럽지 않으셨길 바라고
계속 진행해보겠습니다
제가 말씀드린 대로
블로그 포스트에 포함하고 싶은 특정 지침들을 정의했어요
FAQ, 인용구, 볼드체 등등을 지정했고
기타 등등 요소들도 넣었습니다
그리고 정말 중요한 것은
대규모 언어 모델에
잘 포맷된 출력 예시를 제공했다는 점입니다
이것은 최종 HTML 출력이
어떻게 보여야 하는지에 대한 예시입니다
말씀드린 대로 이런 모습을 원했고
제가 독점하고 싶지 않아서
여러분께 정확한 프롬프트를 공유하고 싶었습니다
하지만 말씀드린 것처럼
제 블로그와 똑같이 만들고 싶지 않으시다면
ChatGPT의 도움을 받아
자유롭게 실험해보세요
2025년에는 정말로
코딩을 알 필요가 없습니다
프롬프트 작성법만 알면 되죠, 멋지지 않나요?
그리고 블로그 포스트에 대한
접근 권한도 제공했는데
이것이 특정 지침이고
HTML로 변환하고 싶은 블로그 포스트입니다
그리고 이것이 잘 포맷된 출력의 예시죠
좋습니다. 이제 이 단계를 테스트해보고
결과를 확인해볼까요? 다행히도
자동화를 실행할 때마다
계속 지켜보고 있을 필요는 없고
백엔드에서 실행되도록 할 수 있죠
만약 이렇게 앉아서
노드가 하나씩 실행되기를 기다려야 한다면
인생의 절반을 이걸 보면서
보내야 할 거예요, 이 테스트 원이 계속 돌고 돌고
영원히 돌고, 그게 바로 그 표현이죠
자, 어서 좀 끝나라... 드디어!
보시다시피 실행이 완료됐네요
보시다시피 출력이 나왔는데요,
블로그 포스트를 정의할 HTML 코드가
잔뜩 생성되었습니다.
이것이
어떻게 보일지는 지금은 읽어보지 않고
잠시 후에 확인해보겠습니다.
곧 보시게 될 거에요.
자, 이제 블로그 포스트의 HTML 버전이 있고
블로그 포스트의 슬러그를 정의해야 합니다.
혹시 슬러그가 무엇인지 모르시는 분들을 위해 설명하자면,
슬러그는 기본적으로
URL에서 여러분의 웹사이트 주소 뒤에 오는
부분을 말합니다.
예를 들어 'multi-agent-systems-business-adoption-2'와 같이
특정 URL이나
특정 블로그 포스트를 가리키는
주소가 되는 거죠.
기본적으로 GPT-4에게
슬러그를 만들어달라고 프롬프트를 작성했고,
SEO 목적으로 블로그 포스트의 주요 키워드를 사용하도록 했습니다.
이걸 실행하면
어떤 결과가 나오는지 보여드리겠습니다.
이 노드에 대해서는
자세히 설명할 필요가 없을 것 같네요.
'rise-of-multi-agent-systems-guide'가
슬러그로 생성되었습니다.
이게 https://domain.com/ 뒤에 붙게 되죠.
자, 이제 다음으로 넘어가서
포스트의 제목을 정의해야 합니다.
이건 실제 블로그 포스트의 제목이 될 거에요.
보시다시피 제목은
이렇게 나왔네요.
'멀티 에이전트 시스템:
비즈니스를 위한 AI 에이전트 확장 종합 가이드'
자, 이제 블로그 포스트 제목을 만들어야 하는데
이를 위해
주요 키워드를 사용하고
대규모 언어 모델에게
블로그 포스트 내용에 대한
접근 권한도 주었습니다.
포스트 내용을
파악할 수 있도록 말이죠. GPT-4를 사용했고
출력된 결과는
'멀티 에이전트 시스템의 부상:
기업을 위한 완벽 가이드'입니다.
이게 블로그 포스트의 제목이 되겠죠.
다음은 메타 설명인데
이것도 꽤 간단합니다.
기본적으로 블로그 포스트를 위한
메타 설명을 생성하게 됩니다.
그리고 이제 재미있는 부분이 나오는데
바로 이미지 컴포넌트입니다.
이게 실제로 하는 일은
블로그 최상단에 들어갈 이미지를
생성하거나 가져오는 것입니다.
반드시 이미지를 넣을 필요는 없지만
제가 보기에는
이미지가 없는 블로그 포스트는
마치 5살 아이가 쓴 것처럼 보입니다.
하지만 이미지가 있으면
훨씬 더 전문적으로 보이죠.
게다가 많은 사람들이
이런 이미지와 포맷팅이 있으면
AI가 전부 생성했다고
생각하지 않을 겁니다.
그래서 저는 반드시
이미지를 넣는 것을 추천드립니다.
이미지를 위해 HTTP 요청 노드를 사용했고
Surfer API를 활용했습니다.
Surfer API를 모르시는 분들은
구글에서 그냥 Surfer.ai.com을 검색하시면
바로 Surfer API로 이동할 수 있습니다.
Surfer API는 기본적으로 도구인데
이것은 실제 구글 인터페이스 대신 API를 사용해
구글 검색을 할 수 있게 해주는 도구입니다.
계정이 없다면 회원가입을 하시면 됩니다.
그러면 한 달에
100회 정도의
API 실행이 가능합니다.
매월 100번 무료로 API를 사용할 수 있는데,
이는 매우 관대한 제공량이죠.
새 계정을 만들거나 회원가입을 하고
필요한 API 키만 받으면 됩니다.
Surf API의 플레이그라운드로 돌아가보면
우리가 사용할 노드가 정확히 어떤 일을 하는지
보여줄 것입니다.
검색어를 정의하면
API는 실제 구글 검색과 동일하게 작동하여
검색을 수행하고
이미지 섹션으로 이동해
검색 결과에서 나온 이미지들의
정보를 가져옵니다.
예를 들어
'AI agents'를 검색하면
AI 에이전트와 관련된
이미지들이 나타날 것입니다.
자, 이렇게 AI 에이전트 관련 이미지들이 나왔네요.
우리 자동화에서는
이 이미지들 중 하나를 가져와서
블로그 포스트에 사용하려고 합니다.
다시 돌아와서 나머지 노드에 대해 설명하겠습니다.
GET 요청에서 쿼리 파라미터 전송을 활성화해야 합니다.
당연히 쿼리 파라미터를 보내야 하니까요.
첫 번째 파라미터는
실제 검색할 쿼리입니다.
파라미터 이름을 'Q'로 지정하고
값으로는 이전 노드에서 생성된
블로그 포스트의 제목을 넣습니다.
여기서는
'멀티 에이전트 시스템의 부상: 기업을 위한 완벽 가이드'
라는 제목으로 검색하게 됩니다.
그 다음으로 검색할 지역을
설정해야 합니다.
저는 미국으로 설정했는데,
GL(지리적 위치)에
US 또는 United States 값을 주면 됩니다.
목표 시장이 다른 곳이라면
이 값을 변경할 수 있습니다.
예를 들어 목표 시장이 호주라면
AU를 사용하면 될 것 같습니다.
정확한 국가 코드는
확인이 필요할 수 있습니다.
목표 시장에 맞게 변경하시면 됩니다.
각 국가의 정확한 코드를 알고 싶다면
Surf API의 문서를 확인하시면 됩니다.
문서가 매우 간단해서
각 국가의 코드를
쉽게 찾을 수 있습니다.
자, 이제 테스트해보고
어떤 결과가 나오는지 확인해볼까요?
여러 이미지의 정보가
반환되었네요.
추천 검색어는 신경 쓰지 않아도 됩니다.
우리가 필요한 건 이미지 결과입니다.
첫 번째 위치에 있는 이미지를 보면
여기 있네요. 이미지 정보들이 나왔습니다.
추천 검색어는 무시하고,
실제 이미지 결과만 봅시다.
첫 번째 순위에 있는
이미지를 클릭해서
원본을 보여드리겠습니다.
원본으로 가면
이미지를 보실 수 있을 겁니다.
자, 여기 있네요.
이게 첫 번째 이미지입니다.
첫 번째로 나온 것은 멀티 에이전트 시스템입니다.
이것은 Solu Lab에서 만든 것이고 여기에
좋은 다이어그램이 있네요.
자, 보시다시피 여러 이미지들이
나올 건데, 꽤 긴 목록이지만
나머지는 신경 쓰지 않으셔도 됩니다.
이미지들이 있으면 그중에서
하나만 선택하시면 되는데
제가 여기서 한 것이 바로 그겁니다.
여기 이미지 URL을 하나 지정했고
제가 선택한 이미지가 바로 이것인데
어떤 이미지인지 한번 볼까요
이 이미지는
멀티 에이전트 RAG 시스템의 사용자 프롬프트가
들어오는 방식을 보여주는 등의 내용이 있네요.
블로그 포스트에 쓰기에
충분히 좋은 이미지입니다. 이제 이것을 가지고
다음 단계로 넘어가서 실제로
워드프레스에 포스트를 작성할 건데
이 부분이 아마도 가장 중요합니다.
왜냐하면 당연히
실제 결과물을 볼 수 있기 때문이죠.
다행히도 n8n에는 이미 워드프레스와의
통합 기능이 미리 정의되어 있어서
HTTP 요청 노드를 만들 필요가 없습니다.
그게 아니었다면 큰 일이었을 텐데
워드프레스 API 문서가 꽤 혼란스럽거든요.
하지만 워드프레스 노드가 어떻게 생겼는지
빠르게 살펴보겠습니다.
워드프레스 계정에 연결해야 하는데
이게 좀 복잡합니다.
그래서 제가 바로
어떻게 하는지 보여드리겠습니다.
정확히 어떻게 하면 되는지
자, 제가 방금
제가 소유한 워드프레스 웹사이트 중
하나를 열었습니다.
먼저 해야 할 일은
사용자로
가서 실제 사용자를 클릭하는 겁니다.
사용자 페이지에 들어가면
맨 아래로 스크롤해서
'애플리케이션 비밀번호'라는
항목이 있습니다.
여기서 애플리케이션 비밀번호를
생성해야 합니다.
n8n을 워드프레스 계정에 연결하는 데
필요하거든요. 아무 이름이나
써주세요. 저는 n8n이라고
애플리케이션 비밀번호 이름을 지었고
n8n이라는 이름으로 새 애플리케이션 비밀번호를
추가하면
NRS a y 170 등등의 문자열이 생성됩니다.
이걸 복사하겠습니다. 물론 나중에
이 키는 변경할 거니까
제 API 키로 접근하려 하지 마세요.
이걸 복사한 다음에
자동화 페이지로 돌아오면
이런 화면이 보일 겁니다.
사용자명, 비밀번호, 워드프레스 URL을
입력하는 섹션이 있는데, 사용자명에는
사용자명을 입력하세요.
제 사용자명은
GM이에요. 아주 간단하죠.
그리고 비밀번호 란에는
방금 만든 애플리케이션 비밀번호를
붙여넣으세요.
여기 있는 이 문자열을 넣고
워드프레스 URL도 필요한데
실제 웹사이트 주소를 입력하세요.
예를 들어 제 경우에는
comma.ai가 되겠죠. 이게 전부예요.
https:// 를 입력하고
여기에 자신의 도메인을 입력하면 됩니다.
애플리케이션 비밀번호를 입력하고 그 위에
사용자 이름을 입력하시면 됩니다. 모든 정보를
입력하고 나면 저장 버튼을
클릭해서 워드프레스 웹사이트와 연결할 수 있습니다.
제 정보는 이게 아니라서
다른 정보를 입력하겠습니다.
자, 이렇게 하면 되겠네요.
저는 이미 연결을 했지만
워드프레스 연결 방법은
이런 식입니다. 여기서는
post 요청인지 확인하고
작업을 'create'로 설정해야
새 블로그 포스트를 생성할 수 있습니다.
그리고 나서 이전 노드의
정보를 채워넣으면 됩니다.
제목은 이전 노드에서 가져온
블로그 포스트의 제목이
될 것입니다.
이전 노드의 제목 관련
데이터를 사용하고, 작성자 이름은
여기서 목록에서 선택할 수 있습니다.
당연히 본인 이름을 작성자로 할 수도 있고
팀원 중 다른 사람을 지정할 수도
있습니다. 선택은 자유입니다.
이제 블로그 포스트의
실제 내용을 살펴보겠습니다.
이게 가장 중요한 부분이죠.
여기에 정확히 이 프롬프트를 설정해야 합니다.
제가 한 것은 블로그 포스트 본문 전에
커버 이미지를 정의했고
커버 이미지는 우리가 받은 이미지 URL을
참조하는 데이터 포인트로 지정했습니다.
기본적으로 이미지 URL을
상단에 배치한 것뿐입니다.
그게 제가 한 전부예요.
상단 이미지 다음에는
실제 포스트 내용을 넣었고
여기 중괄호가 하나 더 있네요.
이걸 제거하면... 자, 이렇게 간단합니다.
이렇게 하면 블로그 포스트가 생성되고
슬러그는 말씀드렸듯이
블로그 포스트의 URL이 됩니다.
그리고 상태 설정인데, 솔직히 말씀드리면
저는 제 블로그 포스트를 매우 신뢰하고
매번 게시 전에 읽어보고 싶지는 않아서
바로 발행으로 설정해 두었습니다.
직접 검토 과정 없이 바로 발행되도록 했는데
이 경우에는 사람의 개입이 없죠.
하지만 데모를 보여드리기 위해
초안으로 설정하겠습니다.
여러분이 사람의 검토를 원하신다면
그리고 확인하고 싶으시다면
처음 두세 번은
이렇게 하는 것이 좋습니다.
그 후에 완전히 만족하시면
바로 발행으로 설정하시면 됩니다.
일단 지금은 초안으로
설정해두겠습니다. 댓글 상태는
원하시는 대로 변경하실 수 있는데
저는 댓글 섹션을
열어두는 것을 선호하지 않습니다.
그리고 카테고리 이름과 태그 이름이 있는데
이것은 워드프레스의 기능으로
블로그 포스트에 태그를 달고
카테고리를 지정할 수 있게 해줍니다.
방문자들이 블로그 포스트를
더 쉽게 탐색할 수 있게 해주죠.
SEO에도 좋은 방법입니다.
저는 'AI agents'로 태그를 달았고
카테고리는 'automation'으로 설정했습니다.
템플릿과 관련해서는
엘리멘탈 템플릿을 선택했는데
여러분이 특정 템플릿이 있다면
드롭다운 메뉴에서 해당 템플릿을
찾아서 사용하면 됩니다. 아주 간단하죠.
이제 테스트해 보겠습니다. 이 노드가 하는 일은
블로그 포스트의 초안을 생성하는 것입니다.
잘 됐네요. 초안이 만들어졌습니다.
정말 잘 작동하는 것 같네요.
워드프레스 계정에 가서
블로그 결과물을 확인해보겠습니다.
좋습니다. '멀티 에이전트 시스템의 부상:'
기업을 위한 완벽 가이드
코삼이 오늘 작성한 포스트입니다.
상단에 이미지가 있고
커버 이미지가 있네요.
구글에서 찾은 이미지입니다.
'멀티 에이전트 시스템의 부상:
기업을 위한 완벽 가이드'
이번에는 12분이 걸렸네요.
주요 내용 요약과 목차가 있습니다.
와, 목차가 꽤 길군요.
클릭하면 해당 섹션으로 이동할 수 있고
출처도 포함되어 있습니다.
출처는 외부 링크나
내부 링크로 연결됩니다.
이건 IBM으로 연결되는 외부 링크네요.
내부 링크도
여기 있을 것 같은데
한번 찾아볼까요?
이게 내부 링크인가요?
아니네요. 이건 어떨까요?
내부 링크?
네, 맞습니다. 이건 내부 링크네요.
제가 작성한 다른 블로그 포스트로 연결됩니다.
아주 좋습니다.
나머지 블로그 포스트도
보기 좋게 잘 만들어졌네요.
'휴먼 인 더 루프 vs 완전 자동화 프로세스'
정말 중요한 주제입니다.
보통은 휴먼 인 더 루프를
추천하는 편인데
이번에는 솔직히 신경 쓰지 않아도 될 것 같아서
완전 자동화로 진행했습니다.
미래 트렌드,
결론, 자주 묻는 질문까지
항상 하던 대로 포함되어 있고
아주 잘 작성된 블로그 포스트가 완성됐네요.
사실 이 정도 수준의
깔끔하고 기능이 많은 블로그 포스트를
만들려면
SEO 회사에 최소 월 2,000달러는
지불해야 할 겁니다. 최소한요.
하지만 보시다시피 우리는 이 모든 것을 100% 자동화했습니다.
그리고 제가 사용하는
자동화 템플릿을 그대로
아래 설명란에 공유해 드립니다.
다운로드하시면 월 2,000달러를 절약하면서
SEO 캠페인의 혜택을
그대로 누리실 수 있습니다.
좋습니다. 이제
블로그 포스트의 마지막 부분에서
두 가지만 더 하면 됩니다.
첫 번째로 초기 엑셀 시트로 돌아가서
두 번째 블로그 포스트를
완료했다고 표시해야 합니다.
이 노드가 바로 그 작업을 수행합니다.
방금 게시한 특정 행을 찾아
해당 클러스터에 대해
게시한 포스트를 찾고
완료 섹션을 '예'로 변경합니다.
좋습니다. 이제 마지막으로
방금 게시한 새 블로그 포스트를
완료된 키워드 엑셀 시트에
추가하면 됩니다.
이렇게 하면 또 하나의
우리가 작성한 블로그가 게시될 것이고
여기 40번에 표시될 텐데, 사실 저는
블로그를 게시하지 않을 것이기 때문에
이 작업을 하지 않을 거예요. 하지만 40번에
표시되고 제가 말씀드린 대로 채워질 거예요
제목, 키워드, 요약, 그리고
링크까지요. 이렇게 하면 앞으로
새로운 블로그를 게시할 때마다
계속해서 다른 블로그들을 게시하면
이 블로그에도 내부 링크가 걸리게 됩니다
엑셀 시트에 저장되어 있기 때문에
나중에 다시 링크를 걸 수 있죠
이해가 되시나요? 말씀드린 대로
이 노드는 실행하지 않을 건데
여러분이 여기서 변경해야 할
유일한 것은 URL입니다
제 실제 웹사이트 도메인인 commect.ai를
그리고 슬러그는 유지하고 싶으실 거예요
슬러그는 동일하게 유지하고
슬러그를 생성한 노드를 가리키되
이 kx.ai 부분만 변경하시면 됩니다
여러분의 URL로 바꾸시면 되요
이것으로 클러스터 SEO 포스트를 위한
자동화가 끝났습니다
이제 두 번째 유형의 SEO 포스트인
트렌드 SEO 포스트로 넘어가보겠습니다
두 번째 유형의 포스트는
트렌드 포스트가 될 거예요
전에 설명드린 것처럼
트렌드 포스트는 새로운 정보나
트렌디한 키워드를 포착해서
그것에 대해 포스팅하는 것입니다
대부분의 경우 이는 뉴스가 될 것이고
사실 이 두 번째 자동화는
모든 사람에게 적용되지는 않습니다
특히 매주 새로운 소식이 없는
산업에 계신다면, 그리고
지난 2년이나 3년 또는
5년 동안 변화가 없었다면
이것이 꼭 필요하지는 않을 것 같습니다
하지만 말씀드렸듯이, 이는
새로운 키워드나 발전 사항을
포착하고 블로그에
포스팅하는 방법입니다
이는 SEO에 많은 도움이 된다고 생각합니다
이제 자동화 과정을 살펴보겠습니다
말씀드린 대로 모든 자동화에는
트리거가 필요합니다
특정 시점에 자동화를 시작하기 위해서죠
우리는 스케줄 트리거를 사용할 건데
주기적으로 매주 또는 2주마다
포스팅하기를 원하기 때문입니다
이를 정의하는 방법은
이 Cron 표현식을 사용하는 거예요
084를 사용할 수 있는데
이는 매주 4일차 오전 8시를 의미하며
원하는 대로 변경할 수 있습니다
이미 설명드렸으니 넘어가겠습니다
트렌드에 대해 포스팅할 때
가장 먼저 해야 할 일은
그 트렌드가 무엇인지 찾는 것입니다
이를 위해 HTTP 요청 노드를 사용했는데
이것도 이전 클러스터 자동화처럼
Serpapi를 호출할 것입니다
Serpapi는 구글 검색뿐만 아니라
구글 트렌드도 검색할 수 있게 해줍니다
구글 트렌드를 모르시는 분들은
구글에서 Google Trends를
검색하시면 됩니다
그리고 첫 번째 결과를 클릭하시면
구글 트렌드로 이동하실 수 있습니다
첫 번째 결과를 클릭하시면 됩니다
구글 트렌드에 들어가면
구글 트렌드 안에서
정말 유용한 도구를 만나실 수 있는데요
특히 콘텐츠를 만드시는 분들에게
구글과 유튜브에서 일어나는
트렌드를 파악할 수 있게 해줍니다
탐색 섹션으로 빠르게 이동해보면
이 탐색 섹션에서
트렌드를 찾아볼 수 있고
우리가 Sur API를 통해
사용하게 될 부분이기도 합니다
탐색 섹션에서는 기본적으로
특정 키워드나 관련 키워드의
시간에 따른 검색량을
추적할 수 있습니다. 예를 들어
'AI agents'를 검색하고
검색 지역을 미국으로 설정한 다음
미국으로 설정하고
지난 12개월이 아닌
빠르게 보여드리기 위해
지난 12개월로 보면
보시다시피 6월에는
AI 에이전트 검색이 거의 없었고
8월, 11월까지도 마찬가지였다가
갑자기 1월 즈음에
큰 상승이 있었죠
확실히 트렌디한 주제입니다만
지난 12개월에서
지난 7일로 바꿔보겠습니다
지난해가 아닌 현재 트렌드를
포스팅하고 싶기 때문이죠
이렇게 변화가 보이고
트렌드를 추적할 영역도
정할 수 있습니다. 웹 검색은
웹에서 얼마나 많은 사람들이
검색했는지를 추적하고
뉴스 검색은 뉴스에서의 검색량
유튜브 검색은 유튜브에서
얼마나 많이 검색했는지를 보여줍니다
유튜브를 보면
지난 7일 동안은
AI 에이전트가 꾸준했지만
지난 12개월로 보면
엄청난 상승이 있었죠
다시 구글 검색으로 돌아가서
웹 검색을 보면
AI 에이전트, 미국, 지난 7일로 설정하고
웹 검색에서 아래로 내려가보면
여기 관련 검색어가 나오는데
이것은 기본적으로
AI 에이전트와 관련된
검색어나 키워드 중에서
검색량이 가장 많이 증가한
키워드를 보여줍니다
어떤 것이 트렌드인지 알 수 있죠
AI 에이전트와 관련해서 보면
현재 가장 트렌드인 것은
OpenAI Deep Research입니다
이건 당연한게
2-3일 전에 출시된
꽤 멋진 도구거든요. 한번 확인해보세요
OpenAI Deep Research가
가장 트렌디한 키워드이고
두 번째는 FBI 에이전트인데
우리가 찾는 것과는
좀 관련이 없네요. 그 다음으로
11 Labs, Flow Y, AI 보이스 에이전트가 있습니다
자 이제
자동화로 돌아가보면
Sur API에 연결하고
이전과 동일한 프로세스로
인증을 진행하면 됩니다
URL에서
엔진을 사용하도록 설정만 하면 됩니다
구글 트렌드를 통해 검색하고 있습니다.
트렌드와 이미지들을 검색하고 있고,
이전과 동일한 방식으로 다시 연결하셔야 합니다.
쿼리 매개변수를 보내야 하는데,
Q는 실제로 검색하고자 하는
트렌드 검색어를 의미합니다.
저는 AI 에이전트로 설정했는데,
AI 에이전트로 순위를 올리고 싶기 때문입니다.
사실 제 비즈니스는
자동화와 AI 에이전트를 중심으로 돌아가고 있고,
SEO 게시물을 통해 제가 목표로 하는 것은
AI 에이전트 검색어에서
1위로 노출되는 것입니다.
누군가 AI 에이전트를 검색했을 때 제가 첫 번째로 나오게 하는 것이죠.
여러분의 제품이나 서비스가 무엇이든,
예를 들어 잔디 깎기 회사라면
잔디를 키워드로 할 수 있겠죠.
치과 의사라면
음...
치과 서비스 같은 것을 사용할 수 있겠죠.
맞습니다. 여러분의
제품이나 서비스와 관련된 것이어야 하죠.
SEO 측면에서 순위를 올리고 싶은
주요 키워드가 되는 거죠.
그리고 지리적 위치는
미국으로 설정했고,
트렌드에서 사용할 언어는
영어로 설정했습니다.
그리고 마지막 섹션에서는
어떤 시간 프레임을 볼지 정의합니다.
이전에 보셨듯이
지난 5일이나
12개월, 2년, 5년 등
원하는 기간을 설정할 수 있습니다.
이 섹션에서는 사용자 지정 간격을 정의합니다.
얼마나 과거의 트렌드를 볼 것인지
설정하는 것이죠.
저는 지난 3일로 설정했습니다.
오늘이 2월 6일이니까
2월 3일부터 2월 6일까지
보게 될 거예요.
최근 3일을 보는 것이 좋은 이유는
지금 당장 트렌드인 것들을
잡아낼 수 있기 때문입니다.
지난 주를 보면
지난 주에는 트렌드였을 수 있지만
이번 주에는 이미 구식이 되어
포스팅할 가치가 없을 수 있죠.
정말 빠르게 대응하고 싶다면
하루만 설정할 수도 있습니다.
이건 여러분의 선택입니다.
그 다음으로 보낼 쿼리는
트렌드로부터 받고 싶은
데이터 유형을 정의하는 것입니다.
저는 연관 쿼리를 찾고 싶은데요.
잠깐 뒤로 가보면
구글 트렌드 API가
또는 Serp API가 제공하는 것은
두 가지인데요.
연관 주제와 연관 쿼리입니다.
연관 주제는 너무 광범위해서
우리 용도에는 맞지 않습니다.
그래서 연관 쿼리만 받으려고 하는데,
이것이 바로 블로그 포스트를 작성할
키워드가 될 것입니다.
데이터 유형을 연관 쿼리로 정의하고,
다른 것들은 그대로 두면 됩니다.
이제 실행하면
트렌드 키워드를 볼 수 있을 텐데...
아, 문제가 생겼네요.
제가 검색어를 지워버린 것이 문제였습니다.
검색어를 AI 에이전트로
다시 해보겠습니다.
그래서 이번에는 확실히 작동할 것 같은데요
좋습니다. 이제 됐네요. 이게 바로
SERP API의 결과입니다. 발음하기가 좀 어색하네요
하지만
보시다시피 상승 중인 연관 검색어 중
1위는 현재 'origami agents'이고
2위는 'OpenAI deep research'로
다른 곳에서도 봤던 키워드입니다
'origami agents'는 완전히 새로운 키워드네요
그 외에는 이미 알려진 트렌드 키워드들입니다
다음 섹션에서는
가장 트렌드인 두 키워드를 추출했는데요
API가 보통 5개나 10개 정도의 키워드를 제공하지만
저는 JSON 포맷을 정의해서
상위 1, 2위 키워드만 받아오도록 했습니다
이렇게 가장 트렌드인
첫 번째와 두 번째 키워드만 받아오도록 설정했어요
1위는 'origami agents'로
스코어가 3,850입니다
이는
최근 3일간의 증가율을 나타내는 것 같은데요
지난 3일 동안
무려
38,050% 검색량이 증가했다는 의미입니다
그리고 'OpenAI research'는 35,700%가 증가했네요
한 가지 더 빠르게 보여드리고 싶은 게 있는데요
연관 검색어를 찾는 두 가지 방식이 있습니다
첫 번째는 상승률 기준이고
이는 최근 검색량이 얼마나 증가했는지를 보는 것으로
실제 트렌드를 파악하는 데 도움이 됩니다
최근 얼마나 검색량이 늘었는지를 보여주죠
이게 실제 트렌드를 잡아내는 방법인데요
또는 상위 검색어로 찾을 수 있습니다
지난 3일 동안 검색량이 가장 많았던 키워드들이죠
AI 에이전트나 처음에 입력한 검색어와 관련해서
상위 연관 검색어들은
반드시 트렌드를 반영하는 것은 아닙니다
왜냐하면 'agents in AI'나
'AI agent' 또는 'what are agents'같은 검색어는
사실 사람들이 늘 검색하는 것이지
최근 3일에만 국한된 게 아니거든요
그래서 이런 키워드로 블로그를 작성하진 않고
상승세에 있는 키워드로 작성합니다
하지만 이런 일반적인 키워드들도
검색량이 매우 높기 때문에
블로그 포스트 여러 곳에
이런 키워드들을 포함시키는 것이 좋습니다
이런 키워드로도 순위를 얻을 수 있도록요
그래서 두 번째 노드에서
제가 한 일이 바로 이거예요
자바스크립트 코드로
모든 상위 키워드를 가져와서
하나의 문자열로 만들었습니다
코드는 모든 상위 키워드를 가져와서
'agents in AI', 'AI agents'
'what are agents', 'what are AI agents'
'what is AI agents', 'best AI agents' 등
이런 식으로요
상위 키워드들을 콤마로 구분해서
하나의 문자열로 만듭니다
나중에 블로그 포스트에서 활용하기 위해서죠
자, 이제 다음 노드를 보시면
대규모 언어 모델 노드가 있는데
여기서는 Claude-1을 사용했습니다
한번 실행해볼까요? 가끔은 계속 처리 중인 상태로 머물 때도 있지만
실행이 잘 되면
계속 돌고 도는 경우가 있어서요
하지만 Claude-1을 사용할 수 있다면
꼭 사용하시길 추천드립니다
정말 훌륭한 모델이거든요
이제 빠르게
Claude-1에 어떤 프롬프트를 주었는지 보여드리겠습니다
기본적으로 Claude-1에게
키워드 중 하나를 선택하라고 지시했습니다
우리가 블로그 포스트를 작성할 수 있도록 상위 두 개의 트렌딩 키워드 중에서
하나를 선택하려고 합니다. 먼저
프롬프트에서 설명하기를, 당신은
세계적 수준의 블로그 포스트를 작성하는 팀의 일원이며
이 블로그 포스트들은 AI와 자동화
에이전시인 Kexa의 웹사이트에 게시됩니다.
Kexa는 AI 에이전트 구축에 중점을 두고 있고
AI 직원들과 자동화 시스템을 만드는데
블로그 포스트는 주로 SEO 캠페인의 일환으로
게시되어 제품과 서비스의 순위를 높이기 위한 것입니다.
기본적으로 제 비즈니스가 무엇이고
제품과 서비스가 무엇인지 정확히 설명했습니다
그래서 기본적으로 두 개의 키워드에 대한
정보를 제공했고
이전에 추출한
상위 두 개의 트렌딩 키워드와 관련된
정보를 제공했습니다
기본적으로 두 가지 속성이 있는데
하나는 실제 키워드 자체인 쿼리이고
다른 하나는 최근 얼마나 증가했는지를 나타내는
점수입니다
그리고 여러 요소들을 기반으로
이 중 하나를 선택하도록 했습니다
물론 이것을 여러분의 비즈니스에 맞게 변경할 수 있습니다
제 비즈니스와 관련된 키워드를
선택하고 싶지 않을 수 있으니
프롬프트의 이 부분을 자유롭게
수정하시기 바랍니다
그리고 제 회사 이름이 있는 이 부분도
수정하시고
두 개의 키워드만 입력하도록
하면 됩니다. 키워드 1번과
키워드 2번을 입력하세요
이것이 최종 결과물이 될 것입니다
보시다시피 DeepSearch가 성공적으로 실행되었고
선택된 키워드는 '오리가미 에이전트'입니다
이게 실제로 존재하는 것인지는 모르겠네요
오리가미 에이전트가 무엇인지 한번 찾아보겠습니다
제가 오리가미 에이전트가
실제 종이접기 관련된 것인지
알아보겠습니다
오 좋네요! 실제로 존재하는 새로운 애플리케이션이네요
저는 오리가미 에이전트가 실제 종이접기를
의미하는 줄 알았는데, 잘 작동하고 있네요
좋습니다. 이제 블로그 포스트의 주제를 선택했고
다른 블로그 포스트에서 했던 것과
동일한 과정을 거칠 건데요
리서치 노드를 사용할 것이고
당연히 여기서도 Perplexity를 사용할 겁니다
다시 한 번 설명하지는 않겠지만
Sona Pro를 사용하고
이 쿼리를 전송해야 합니다
다음 주제를 연구하고 관련된 모든 정보를
리턴하도록 하는 거죠
자 실행해보겠습니다
보시다시피 10개의 인용문과
Perplexity에서 얻은 연구 결과가 나왔습니다
좋습니다. 이제 실제 연구 결과가 나왔으니
이전처럼 링크들도 수정해야 합니다
기본적으로 이 작업을 통해
내부 링크로 사용할 https 소스들을
인덱스 인용과 함께 얻을 수 있습니다
그리고 나서 실제 작성자 컴포넌트가 있는데
이것은 블로그 포스트를 실제로 작성할
대규모 언어 모델 노드입니다
제가 말씀드렸듯이 저는 Claude-2-Sonnet을 선호하지만
여러분이 원하는 다른 모델을 사용하셔도 됩니다
프롬프트는 여기 있는 이것을 사용했고
실제로 블로그 포스트를 작성할
언어 모델 노드를 설정했습니다
제가 말씀드린 대로 Claude-2-Sonnet을 사용하지만
원하는 다른 모델을 사용하셔도 됩니다
프롬프트는 이런 식으로 작성했는데
입력 정보로 쿼리와
다른 키워드들,
그리고 complexity 노드에서 나온 연구 결과를 전달했습니다.
그리고 블로그 포스트의 구조에 대해
어떤 정보를 포함할지
구체적으로 설명했습니다.
기본적으로 블로그 포스트에 어떤 정보를 담을지
지정했는데요.
전문가 수준의 콘텐츠로
최소 1,500에서 2,000 단어 길이로 작성하도록 했습니다.
여러분에게 이 프롬프트를
그대로 공유해 드릴 예정이니
스크린샷을 찍으실 필요는 없습니다.
기본적으로 주제나
가장 트렌딩한 키워드를
쿼리로 입력했고
또한 자세한 연구 결과도
perplexity에서 얻은 내용을 포함했습니다.
이제 실행해 보겠습니다.
시간이 좀 걸릴 텐데요,
GPT-3.5를 open router를 통해 호출하고
복잡한 작업이라 그렇습니다.
자, 블로그 포스트가 완성되었네요.
제목은 '오리가미 에이전트:
AI 기반 영업 혁명'
리드 제너레이션의 변화입니다.
꽤 괜찮네요.
그들의 웹사이트에서 다루는 내용과도
잘 맞아떨어집니다. 오리가미 에이전트, 리드 제너레이션 등등.
이제 블로그 포스트가 완성되었고
이 섹션에서는 이전처럼
자세히 설명하지는 않겠지만
이전 블로그들을 가져와서
통합할 예정입니다.
그러면 이런 식으로
이전 포스트들에 대한 정보가 나타날 텐데요.
블로그 제목, 키워드,
요약본과
지금까지 게시한 각 블로그의 URL이 포함됩니다.
이를 통해 앞서 언급했던
내부 링크 작업을
진행할 수 있죠.
그리고 이전처럼
내부 링크를 처리하는
노드가 있을 겁니다. 프롬프트는 이전과 비슷한데요,
현재 블로그 포스트와
이전 블로그 포스트를
아래에 넣고 llama-2를 사용합니다.
말씀드렸듯이
추론 모델을 사용해야 하는데
약간의 사고가 필요하기 때문입니다.
이제 결과를 확인해 보겠습니다.
이 결과물에는 comma.ai로의 링크나
내부 링크도 포함되어 있어야 합니다. 잘됐네요.
이제 이 블로그 포스트를
HTML로 변환하면 되는데
이전에 설명했던 대로입니다.
HTML 버전이 완성되면
포스트의 슬러그, 제목,
메타 설명을 정의하고
이전에 보여드린 것처럼
상단에 들어갈 이미지도
가져와야 합니다.
이전 자동화와 완전히 동일하니
자세히 설명하지는 않겠습니다.
마지막으로
워드프레스에 게시하면 되는데
임시저장으로 설정하고
최종 결과를 보여드리겠습니다.
임시저장으로 바꾸고 실행하면
자, 이제 임시저장 글이 생성되었고
실제 블로그 포스트가 보이시죠.
오리가미라는 제목의 블로그 포스트가
성공적으로 생성되었습니다.
AI를 활용한 영업 혁신에 대한 오리가미
에이전트에 대한 글이 있고, 상단에는
추출된 작은 이미지가 있습니다
제목과 예상 읽기 시간이 있고
주요 핵심 내용과 목차가 있으며
제목, 부제목, 텍스트 인용이 링크되어 있고
마지막에는 자주 묻는 질문도 포함되어 있습니다
이제 워드프레스에 게시했으니
이전에 했던 것처럼
새로 작성한 블로그를
완료된 키워드 섹션 또는
완료된 블로그 엑셀 시트에
추가하기만 하면 됩니다
이 노드를 통해 처리되는데
여기서 변경해야 할 유일한 것은
comma.ai를 여러분의 URL로
변경하는 것입니다. 여러분의 URL이 무엇이든
yoururl.com으로 바꾸면 됩니다
저는 실제로 이 블로그를 게시하거나
엑셀 시트에 잘못된 데이터를
생성하고 싶지 않기 때문에 실행하지 않을 것입니다
하지만 여러분은 할 수 있고
정말 이게 전부입니다. 이렇게 쉽습니다
SEO 에이전시에 매달 2,000달러, 3,000달러
심지어 5,000달러를 지불할 필요가 전혀 없습니다
블로그 운영을 위해서는 제가 제공한 템플릿을
다운로드하여 워크플로우에 업로드하고
약간만 수정한 다음 자격 증명을
입력하기만 하면 됩니다
그러면 바로 SEO 캠페인이
앞으로 계속 자동으로 운영될 것입니다
약속드리지만, 이것을 꾸준히 유지하면
앞으로 1년에서 1년 반 이내에
실제 결과를 볼 수 있을 것입니다
만약 AI 에이전시 소유자라면
이 템플릿을 고객들에게 월 200달러 이상에
재판매할 수 있습니다
새 고객을 확보하여 제가 제공한 템플릿을
연결하기만 하면
블로그 포스트가 백엔드에서
계속 자동으로 운영되며
특별히 할 일 없이 매달 200달러씩
수익을 얻을 수 있습니다
다시 한 번 말씀드리지만
이 영상이 도움이 되셨다면 좋아요와
구독, 그리고 댓글 남겨주시기 바랍니다
다음 영상에서 다시 만나뵙겠습니다
감사합니다