몇 초 만에 거의 모든 것을 스크레이핑하는 방법 | Apify 신규 MCP 서버

채널 아이콘
Mark Kashef 구독자 37,000명

요약

이 영상에서는 Apify의 신규 MCP 서버를 Claw Desktop과 연동해 코드 없이 다양한 플랫폼(Instagram, LinkedIn, X, Google Maps 등)에서 실시간 데이터를 손쉽게 스크레이핑하는 방법을 단계별로 안내합니다. MCP 서버(Model Context Protocol)는 하나의 자격 증명으로 여러 스크레이퍼(Actors)에 접근해 효율적으로 요청을 관리합니다. JSON 설정 파일에 스크레이퍼 이름만 추가해 Facebook Ads, YouTube 트랜스크립트, TikTok 해시태그, Google Maps 비즈니스 정보, LinkedIn 인재 검색 등 다양한 사례를 실습합니다. 마지막으로 Sam Altman 트윗 분석과 Mermaid 다이어그램을 활용한 마인드맵 시각화 예시로 확장 가능 활용 방안을 제시합니다.

주요 키워드

Apify MCP Server Scraper Claw Desktop Web Scraping Model Context Protocol JSON Config Actor Lead Generation Mermaid Diagram

하이라이트

  • 🔑 한 번의 프롬프트로 Instagram, LinkedIn, X, Google Maps 등 다양한 플랫폼에서 실시간 데이터를 추출할 수 있습니다.
  • 💡 MCP 서버(Model Context Protocol)를 통해 하나의 자격 증명으로 여러 스크레이퍼(Actors)에 접근하고 관리할 수 있습니다.
  • ⚡️ Claw Desktop과 연동 후 JSON 설정 파일에 스크레이퍼 이름만 추가해 즉시 사용할 수 있습니다.
  • 🚀 YouTube 트랜스크립트 추출, TikTok #AIAASMR 해시태그 데이터, Instagram 마지막 10개 게시물 등 실제 예시를 시연합니다.
  • 📌 Google Maps로 지역 비즈니스(예: 토론토 태양광 업체) 정보를 스크레이핑해 리드 생성에 활용할 수 있습니다.
  • 🔍 Sam Altman의 마지막 100개 트윗을 스크레이핑해 핵심 테마를 요약하고 차기 OpenAI 릴리즈를 예측합니다.
  • 🌟 LinkedIn 스크레이퍼로 AI 엔지니어 인재를 자동으로 선별하고 우선순위를 제시하는 워크플로우를 소개합니다.
  • 🚀 Mermaid 다이어그램을 활용해 마인드맵 형태로 분석 결과를 시각적으로 정리합니다.

용어 설명

MCP 서버

Model Context Protocol의 약자로, 하나의 자격 증명으로 여러 스크레이퍼(Actors)에 동시에 요청을 보낼 수 있게 해 주는 서버입니다.

Apify

웹 스크레이핑 및 자동화용 마켓플레이스로, 다양한 스크레이퍼(Actor)를 앱 스토어 형태로 제공합니다.

Claw Desktop

언어 모델과 통합해 스크레이퍼를 플러그인처럼 관리하는 데스크톱 애플리케이션으로, JSON 설정을 통해 간편히 연동합니다.

Actor

Apify 플랫폼에서 특정 웹사이트나 서비스의 데이터를 스크레이핑 및 자동화 작업으로 추출해 주는 개별 모듈입니다.

Mermaid 다이어그램

Markdown 기반 시각적 다이어그램 도구로, 플로우차트나 마인드맵을 간단한 텍스트로 표현할 수 있습니다.

[00:00:00] 소개 및 Apify MCP 서버 개요

하나의 프롬프트만으로 Instagram, LinkedIn, X, Google Maps 등에서 코딩 없이 데이터를 추출하는 과정을 개괄하고, 이번 영상에서 다룰 Apify의 신규 MCP 서버를 소개합니다.

AI 스크래핑의 혁신적인 가능성을 소개합니다. 단일 프롬프트로 인스타그램, 링크드인, X, 구글 지도 등에서 실시간 데이터를 추출할 수 있으며, 코딩 없이도 몇 분 안에 설정 가능합니다.
Apify는 다양한 플랫폼과 소셜미디어 웹사이트를 스크래핑할 수 있는 애플리케이션들의 마켓플레이스입니다. 틱톡, 구글 지도, 인스타그램, 아마존 등 5,000가지 옵션을 제공하며, 각각 고유한 비용 구조를 가지고 있습니다.
[00:00:37] Apify 마켓플레이스와 스크레이퍼 소개

Apify가 제공하는 마켓플레이스 구조를 설명하며 TikTok, Google Maps, Instagram, Amazon 등 다양한 스크레이퍼(Actor)를 살펴보고 무료 테스트 및 요금 구조를 안내합니다.

타임라인 정보가 없습니다.

[00:01:04] 스크레이퍼 기능과 메타데이터 활용

각 스크레이퍼가 수집하는 데이터(제목, 브랜드, 평점, URL 등) 예시를 확인하고, 이 메타데이터를 언어 모델 분석에 활용하는 방안을 설명합니다.

MCP(모델 컨텍스트 프로토콜) 서버의 개념을 설명합니다. 기존에는 각 서비스마다 별도의 자격 증명이 필요했지만, MCP 서버에서는 하나의 자격 증명으로 여러 데이터 소스에 동시에 접근할 수 있습니다.
[00:01:54] MCP 서버 개념 이해하기

Model Context Protocol의 정의와 장점을 설명합니다. 기존 방식에서는 스크레이핑마다 별도 자격 증명이 필요했으나 MCP 서버는 하나의 키로 여러 스크레이퍼를 동시에 호출할 수 있습니다.

타임라인 정보가 없습니다.

[00:02:10] Claw Desktop 통합 및 설정

Claw Desktop을 사용해 다양한 스크레이퍼를 언어 모델 툴로 불러오는 과정을 데모로 보여주고, 사용 가능한 툴 목록과 탐색 기능을 설명합니다.

하나의 자격 증명으로 여러 플랫폼을 스크래핑할 수 있는 편리함을 설명하며, 기존에는 각각 별도의 자격 증명이 필요했던 인스타그램, 아마존 X, 페이스북 등을 같은 자격 증명으로 처리할 수 있게 되었다고 언급한다.
Slack을 예로 들어 MCP 서버의 장점을 설명한다. 기존에는 각 기능별로 정확한 실행 방법을 언어 모델에게 일일이 알려줘야 했지만, MCP 서버에서는 조건이 포함된 하나의 요청으로 여러 기능을 스마트하게 실행할 수 있다고 강조한다.
[00:02:45] 스크레이퍼 연결: JSON 설정 파일

Claude 설정의 개발자 설정→Edit Config를 통해 열리는 JSON 파일에 Apify MCP 서버 자격 증명 및 원하는 스크레이퍼 이름을 추가하는 방법을 단계별로 안내합니다.

실제 사용법을 보여주며 Claude Desktop을 통해 Apify의 MCP 서버에 액세스한다고 설명한다. 다양한 스크래핑 도구들이 연결되어 있으며, 특정 서비스에 연결하지 않은 경우에도 Apify 플랫폼에서 최적의 서비스를 찾는 데 도움이 된다고 언급한다.
Claude Desktop에 MCP 서버를 통합하는 구체적인 방법을 단계별로 설명한다. Claude 설정에서 개발자 설정으로 들어가 JSON 설정 파일을 편집하는 과정을 안내하며, 제공할 코드를 붙여넣어 원하는 액터들을 구성할 수 있다고 설명한다.
[00:04:01] 새 스크레이퍼 추가: Facebook Ads Scraper

JSON에 'appify/facebook-ads-scraper' 항목을 복사·붙여넣어 Facebook Ads 스크레이퍼를 연동하고, 서비스를 다시 시작해 드롭다운에 나타나는 과정을 설명합니다.

설정 파일의 구조를 보여주며 Apify 액터 MCP 서버와 연결된 다양한 스크래퍼들(Apollo, YouTube, Google Maps, TikTok, Instagram 등)의 목록을 확인할 수 있다고 설명한다. 새로운 서비스 추가도 간단하며 e-commerce 카테고리에서 Facebook 광고 스크래퍼를 예시로 든다.
Facebook 광고 스크래퍼를 선택하고 기대하는 결과를 제공하는지 확인한 후, 가격이 사용 사례에 적합한지 검토합니다. 많은 서비스가 무료이지만 유료 서비스도 있습니다.
파일에 'Apify Facebook 광고 스크래퍼' 이름만 추가하면 됩니다. 복사한 후 파일에 붙여넣고 쉼표로 구분하여 저장합니다.
Claude를 재시작하면 드롭다운에서 새로운 서비스를 확인할 수 있습니다. 서비스 개수가 27개에서 28개로 증가하고, 새로 추가된 Facebook 광고 스크래퍼를 사용할 수 있습니다.
[00:05:37] YouTube 스크립트 추출 및 분석 예시

YouTube 동영상 URL 하나만으로 트랜스크립트(자막)를 스크레이핑하고, 전체 스크립트 분석 및 Mermaid 다이어그램 형태의 마인드맵을 자동으로 생성하는 과정을 시연합니다.

특정 서비스 연결을 해제하려면 토글을 끄거나 설정 파일에서 삭제하면 됩니다. 모든 설정이 완료되면 실제 테스트를 시작할 수 있습니다.
YouTube 동영상을 분석하여 전사본을 추출하고 전체 분석 및 마인드맵을 만들어달라고 요청합니다. 확장 사고 기능과 Claude Opus 모델을 활성화하여 최적의 서비스를 선택하도록 합니다.
AI가 YouTube 전사본 추출을 위해 Apify의 YouTube 전사본 스크래퍼를 사용하기로 결정하고, 필요한 API 요청을 자동으로 구성합니다. 일반적으로 수동으로 해야 하는 작업을 AI가 자동화합니다.
AI는 액터를 찾고 요청을 보낼 뿐만 아니라 정보를 검색하고, 전체 전사본이 없다는 것을 인식하여 자동으로 보완합니다. 최종적으로 전사본, 비디오 요약, 마인드맵을 모두 제공합니다.
[00:07:11] TikTok & Instagram 스크레이핑 예시

TikTok 해시태그(#AIAASMR)로 동영상 메타데이터(게시일, 조회수, 좋아요, 댓글)를 스크레이핑하고, Instagram 페이지의 마지막 10개 게시물을 추출해 캡션과 통계 정보를 확인하는 방법을 안내합니다.

화자가 마인드맵 생성 기능을 시연하며, 단 하나의 액션과 URL만으로도 복잡한 자동화 작업을 수행할 수 있음을 설명합니다.
틱톡 스크래핑 실험을 소개하며, #AI ASMR 해시태그로 구글 Veo3 모델을 사용한 슬로우모션 과일 자르기 영상들을 찾는 새로운 트렌드에 대해 설명합니다.
20개의 틱톡 영상 스크래핑 결과를 보여주며, 계정별 게시 날짜, 조회수, 좋아요, 댓글 수와 함께 직접 링크 제공 기능을 시연합니다.
인스타그램 스크래핑 사례를 소개하며, 특정 페이지의 최근 10개 게시물을 가져오는 과정과 Apify 인스타그램 스크래퍼의 활용법을 설명합니다.
[00:09:24] Google Maps로 비즈니스 정보 스크레이핑

Google Maps 스크레이퍼를 사용해 토론토 지역 태양광 업체 20곳의 이름, 주소, 전화번호, 웹사이트, 평점, 영업시간 등 상세 정보를 추출해 영업·리드 생성에 활용하는 사례를 소개합니다.

구글 맵 스크래퍼를 사용해 토론토의 태양광 회사 20개와 비즈니스 정보를 수집하는 사례를 보여주며, 구체적인 도구 지정의 중요성과 프로 팁을 제공합니다.
AI 도구가 스크래핑한 데이터를 자동으로 분석하여 비즈니스 정보(주소, 전화번호, 평점, 운영시간)를 종합적으로 정리해주며, 이는 리드 생성이나 아웃리치에 매우 효율적인 방법입니다.
샘 알트만의 최근 100개 트윗을 스크랩하여 핵심 주제를 분석하고 OpenAI의 향후 출시 예측을 수행한 사례를 소개합니다. 혁신적인 오픈 웨이트 모델과 ChatGPT를 넘어선 새로운 도구들이 나올 것으로 예측됩니다.
[00:10:29] 트윗 분석 및 예측: Sam Altman 사례

Sam Altman의 최근 100개 트윗을 스크레이핑해 핵심 테마를 요약하고, 인공지능 차기 릴리즈 예측을 위한 분석 과정을 보여 줍니다. 주요 인용구 분석 및 예측 요약 포함됩니다.

AI가 프로젝트의 80% 완료에서 전체 프로젝트 완료로 발전할 것이라는 샘 알트만의 인용구 분석을 통해, 마치 개인 전용 미니 저널리스트를 둔 것과 같은 분석 능력을 보여줍니다.
[00:11:42] LinkedIn 인재 발굴 자동화

LinkedIn 스크레이퍼로 AI 엔지니어 직함을 가진 후보자 중 Google/Facebook 경력이 있는 상위 10명을 자동으로 선별하고, 우선순위 및 추천 이유를 분석해 제시하는 워크플로우를 시연합니다.

LinkedIn에서 GenAI 컨설팅 회사를 위한 AI 엔지니어링 인재를 찾는 사례입니다. 구글이나 페이스북 경력이 있고 토론토/몬트리올 지역의 후보 10명을 30초 안에 분석하여 우선순위와 함께 제공합니다.
이는 MCP 서버의 강력한 기능 중 빙산의 일각일 뿐이며, 클라우드 데스크톱 설정을 위한 스키마와 얼리 AI 어답터 커뮤니티 참여 방법을 안내합니다.
[00:12:42] 설치 도움말 및 클로징

설정용 JSON 스키마 다운로드 링크와 조기 AI 도입자 커뮤니티 가입 링크를 안내하며, 추가 실험 사례와 활용 팁을 기대하며 영상을 마무리합니다.

타임라인 정보가 없습니다.

단 하나의 프롬프트만 작성하면
AI가 어디서든 실시간 데이터를
가져올 수 있다고 상상해보세요. 인스타그램,
링크드인, X, 심지어 구글 지도까지. 게시물,
원하는 것이 무엇이든 정확히 말하기만 하면,
프로필이든 비즈니스
세부 정보든, AI가 알아서 가서
코딩 없이도 요청을 완료하고
원하는 정확한 데이터를
원하는 정확한 방식으로 제공합니다. 그리고
가장 좋은 점은 말 그대로 몇 분 안에
실행할 수 있다는 것입니다. 이
영상에서는 단계별로
Apify의 완전히 새로운 MCP 서버를
사용하는 방법을 안내해드리겠습니다. 클로드 데스크톱과 같은
언어 모델에 연결하기만 하면
즉시 몇 초 만에
모든 종류의 데이터를 스크래핑할 수 있습니다.
바로 시작해보겠습니다. Apify가
무엇인지 모르신다면, 기본적으로
마켓플레이스이거나 앱 스토어라고
생각하시면 됩니다. 플랫폼,
소셜미디어 웹사이트, 그리고
일반적인 웹사이트를 스크래핑할 수 있는
모든 종류의 애플리케이션들이 있습니다. 첫 번째
화면에서 보시는 것처럼, 틱톡,
구글 지도, 인스타그램용 스크래퍼들이 있고,
일반 웹사이트, 심지어 아마존용도 있습니다. 그리고
이 중 하나에 들어가면
무료로 체험해볼 수 있습니다. 각각은
고유한 비용 구조를 가지고 있으므로
어떻게 요금이 부과되는지
주의 깊게 살펴보셔야 합니다. 맨 위에서
보시면, 이 경우
실제로 스크래핑하는 천 개 결과당 6달러입니다.
예를 들어, 우리가 이 URL을 제공했다면
웹사이트에서 직접
테스트해볼 수 있습니다. 시작을
클릭하면, 이 작업이 실행되어
이 경우 아마존
웹사이트에서 다양한 제품들을
검색하기 시작합니다. 지금 여기서
많은 제품들을 처리하고 있고
제목, 브랜드, 별점, 그리고
해당 제품의 기본 URL과 같은
정보들을 얻고 있습니다. 따라서
추출하는 대부분의 데이터가
이런 형태로 보일 것이라고
상상하실 수 있습니다. 그리고 이 모든 것을
사용하고 있는 어떤 언어 모델로든
가져와서 분석이나
원하는 용도로 사용할 수 있는 핵심 메타데이터로
활용할 수 있습니다. 그리고
소셜미디어, AI, AI 에이전트,
리드 생성 등 다양한
카테고리별로 5,000가지의 서로 다른 옵션들을
선택할 수 있습니다. 정말 강력합니다.
MCP 서버가 무엇인지 모르신다면,
모델 컨텍스트 프로토콜의
줄임말입니다. 이 경우, 마켓플레이스에서
본 모든 다양한
액터들을 Apify를 통해
하나의 메인 자격 증명으로 사용할 수 있게
해줍니다. 2024년 이전에
서비스를 호출했다면, 일반적으로
특별한 키와 함께 어떤 형태의
요청을 보내야 했고, 이 키는 문을 여는
자격 증명이었습니다. 이 문에는
한 가지 유형의 데이터가 있을 수 있습니다. 메타데이터나
다른 무엇이든. MCP 서버의
세계에서는 하나의 키 또는
하나의 자격 증명 세트가 여러 문을
동시에 열 수 있습니다. 이전에는
스크래핑을 위해 각각 별도의 자격 증명을
생성해야 했다면
인스타그램을 스크래핑하는 것처럼, 이제 같은
자격 증명으로 인스타그램,
아마존 X, 페이스북 또는 원하는
앱을 스크래핑할 수 있습니다. 요점을
명확히 하기 위해, 슬랙을 사용하고
백엔드에서 해당 애플리케이션의
다양한 기능에 액세스하려고 한다고
상상해보세요. 일반적으로 언어
모델에게 '메시지를 보내고 싶어요,
그리고 메시지를 보내는 정확한
방법은 이렇습니다'라고 말해야 합니다.
또는 '메시지를 예약하고 싶어요,
그리고 그 메시지를 예약하는
정확한 방법은 이렇습니다'라고 말해야 했죠.
MCP 서버의 세계에서는 다양한
조건을 가진 하나의 요청을 만들 수
있고, 충분히 똑똑해서 모든 다른
문들을 열거나 이 경우에는 모든
다른 기능들을 열고 실행할 수
있으며, 가장 합리적인 순서로
가장 의미 있는 것들을 실행할 수
있습니다. 이제 실제로 Apify의
MCP 서버를 사용하고 호출하는
측면에서, 저는 여러 스크래퍼에
액세스할 수 있는 언어 모델과
대화할 수 있도록 Claude Desktop을
사용하고 있습니다. 이것을 클릭하면
제가 가진 모든 도구들을 볼 수
있고, 이 도구들 중 일부는 실제로
제가 가진 요청에 대해 어떤 다른
서비스가 존재하는지 확인하기 위해
Apify를 검색하는 데 도움이 됩니다.
만약 실제로 특정 액터나 스크래퍼에
가입하거나 연결하지 않았다면,
이것은 플랫폼에서 최고의 것들을
찾는 데 도움이 될 수 있고,
특정 리뷰 수준, 특정 가격 등에서
찾는 데도 도움이 됩니다. 맨 아래로
스크롤하면 제가 Claude Desktop에
연결한 모든 다른 액터나
스크래퍼들을 볼 수 있습니다.
실제로 통합하는 방법은 매우 간단합니다.
해야 할 일은 상단의 Claude로
가는 것뿐입니다. 설정으로 가서
개발자 설정을 클릭하면 됩니다.
여기서 설정 편집을 클릭하면
컴퓨터에서 JSON 파일이 열리고,
제가 제공할 코드를 붙여넣어서
기본적으로 원하는 모든 액터를
구성할 수 있습니다. 해야 할 일은
설정 편집을 클릭하는 것뿐입니다.
폴더가 열리고 이 파일을 클릭하면
현재 가지고 있는 모든 자격 증명이
표시됩니다. 여기서 몇 가지 다른
서비스가 있는 것을 볼 수 있습니다.
Claude Desktop을 전혀 사용하지
않았다면 이것은 빈 파일이 될
것이고, 실제로 관리하기가 더 쉽습니다.
하지만 여기서 액터 MCP 서버가
있는 것을 볼 수 있습니다. 여기에
알아보기 어려운 문자들이 있고,
실제 서비스 이름인 Apify 액터
MCP 서버가 있습니다. 그리고
기본적으로 연결하고 싶은 다른
스크래퍼들의 목록입니다.
Apollo, YouTube, Google Maps,
TikTok, Instagram 등과 같은
제가 여기에 가진 것들을 볼 수 있습니다.
또 다른 서비스를 추가하는 것은
매우 쉽습니다. 해야 할 일은
Apify로 돌아가서 e-commerce 같은
카테고리로 가서 여기 첫 번째 서비스를
클릭하는 것뿐입니다.
Facebook 광고 스크래퍼입니다.
Facebook 광고 스크래퍼를 클릭할 수 있습니다.
당연히 원하는 결과를 제공하는지
다시 한번 확인해야 합니다. 그래서
이것을 실행해서 어떤 종류의
결과가 나오는지 확인해보겠습니다.
유용하다고 판단되면 가격을 확인해서
제 사용 사례에 합리적인지 확인합니다.
많은 서비스들이 무료이지만
유료인 것들도 있습니다.
이 파일에 추가해야 할 것은
말 그대로 이 이름뿐입니다.
Apify Facebook 광고 스크래퍼.
이 복사 버튼을 클릭하고
파일에 다시 붙여넣기 하겠습니다.
해야 할 일은 쉼표를 넣고
붙여넣기 하고 쉼표로 끝내는 것입니다.
파일을 저장합니다. 그리고
이것을 닫고 Claude를 재시작하면
드롭다운에서 볼 수 있습니다.
거의 즉시 이 드롭다운을
클릭할 수 있습니다. 기억하시면
전에는 27개였는데 이제 28개입니다.
클릭해서 맨 아래로 스크롤하면
이 Apify Facebook 광고 스크래퍼가
사용할 준비가 된 것을 볼 수 있습니다.
어떤 이유로든 특정 서비스의
연결을 해제하고 싶다면
여기서 토글을 끄거나
Claude 설정에서 봤던 파일로 가서
목록에서 삭제하면 됩니다.
모든 설정이 완료되었으니
이제 테스트해보겠습니다.
다음과 같이 간단하게 요청할 수 있습니다:
다음 YouTube 동영상을 살펴보고
스크립트나 전사본을 그대로 제공하고
전체 분석을 수행해서
마인드맵을 만들기 위한
mermaid 다이어그램을 만들어줘.
이 경우 제 비디오 중 하나에서
링크를 가져와서 여기에 넣고
확장 사고 기능을 활성화하고
가장 똑똑한 모델 중 하나인
Claude Opus를 사용하겠습니다.
자체 웹 검색 기능을 포함해
액세스할 수 있는 서비스 중에서
이 요청에 가장 적합한 것을
결정할 수 있어야 합니다.
이것을 보내면 다양한
사고 패턴을 보기 시작할 것입니다.
이제 YouTube에서 전사본을
추출하는 데 도움을 주겠다고 합니다.
Apify의 YouTube 전사본 스크래퍼를
사용하는 것이 아마도 최선의
조치라고 판단합니다. 그리고
이제 필요한 API 요청을 정확히
어떻게 채워야 하는지 알고 있습니다.
참고로, 일반적으로는 이것을
직접 알아내야 합니다.
Aidean이나 Make.com 또는
Zapier에서 이런 작업을 한다면
특정 결과를 얻기 위해
요청을 어떻게 구조화해야 하는지
알아내야 합니다. 그리고 이 AI는
액터를 찾고 요청을 보낼 뿐만 아니라
정보를 검색하고 전체 전사본이
없다는 것을 깨닫고 반성해서
바로 전체 전사본을
만들어낼 정도로 똑똑합니다.
이렇게 전사본, 전체 비디오 요약,
그리고 일련의 마인드맵을 제공합니다.
여기를 확대해보면, 이것은
제가 만든 AI 에이전트 NDN 비디오를
설명하는 mermaid 다이어그램으로
실제로 그것을 작동시키는 방법입니다. 조금 아래로 가보면
여기에 마인드맵을 만든 것을 볼 수 있습니다.
여기를 확대해보면, 확실히 여기에는
많은 것들이 진행되고 있습니다.
좀 더 간결하게 하라고 말할 수도 있지만
단 하나의 액션과 하나의 URL만으로
평소라면 별도의 자동화가 필요한 작업을
이제 할 수 있게 되었습니다.
다음으로 시도한 실험은
틱톡에서 실행한 것인데, 저는 그냥
'#AI ASMR 해시태그가 있는 틱톡 영상을 찾아줘'라고 말했습니다.
그것이 무엇인지 모르신다면
기본적으로 틱톡의 완전히 새로운 트렌드로
사람들이 구글 Veo3 모델을 사용해서
과일을 매우 천천히 자르는
숏폼 비디오를 만드는 것입니다.
여기 아래로 가보면, 스크래핑할 영상을
20개만 하라고 지시했습니다.
기본적으로는 100개까지 할 수 있는 것 같습니다.
그리고 일련의 계정들을 살펴보면서
게시된 날짜, 조회수, 좋아요, 댓글 수를 확인하고
실제로 영상을 보고 싶다면
직접 열어볼 수 있는 링크로
바로 볼 수 있게 해줍니다.
여기 바로 하나의 예시를 볼 수 있습니다.
소리는 들을 수 없지만
실제로 다양한 슬라임 영상이나
슬로우모션으로 과일 자르는 영상들을 볼 수 있습니다.
이것이 좋은 예시가 될 것 같습니다.
여기 이것으로 가서 열어보면
바로 여기에서 보시는 것처럼
기본적으로 과일을 매우 슬로우모션으로 자르는 것입니다.
그리고 이것이 이제 아무 이유 없이
하루아침에 거대한 계정들을 만들어내고 있습니다.
하지만 어쨌든, 평소 Claude가
기본적으로는 할 수 없는 이런 데이터를
스크래핑할 수 있게 되었습니다.
다음으로 시도한 사용 사례는
인스타그램 스크래퍼를 사용하는 것입니다.
여기서 제가 한 말은 단순히 '이 인스타그램 페이지에서
최근 10개 게시물을 가져와'였습니다.
정확한 페이지를 제공했고, 그러면
제가 연결해둔 Apify 인스타그램 스크래퍼를
사용해야 한다는 것을 인식합니다.
그러면 검색한 데이터셋 항목들을 가져와서
동일한 종류의 출력을 생성합니다.
여기 있는 실제 출력은 꽤 기본적이지만
훨씬 더 포괄적인 프롬프트나
수행하려는 분석이 있다면
동일한 프롬프트 내에서 여러 스크래퍼를 호출해서
그것을 조율할 수 있다고 상상해볼 수 있습니다.
그리고 여기에는 게시 날짜, 캡션, 좋아요, 댓글이
이전 것과 마찬가지로 있습니다.
그리고 다시 한번, 특정 게시물이나
해당 인스타그램 페이지의 영상에 대한
직접 링크를 얻을 수 있습니다.
또는 찾고 있는 어떤 인스타그램 페이지든지 말이죠.
다음으로 시도한 것은
구글 맵 스크래퍼였습니다.
여기서 저는 '토론토, 캐나다에서
태양광 회사 20개와 그들의 비즈니스 정보를 찾아줘'라고 했습니다.
그리고 이 경우에는 '구글 맵을 사용해서'라고
명시했습니다. 제가 이렇게 구체적으로 말한 이유는
기술적으로는 웹 검색으로도 가능하지만
같은 수준의 세부 정보는 얻지 못할 수도 있기 때문입니다.
그래서 여기서는 매우 구체적으로 했는데
이것이 도움이 됩니다.
그리고 프로 팁으로, 원하는 도구를
사용하지 않는다는 것을 발견하면
실제로 가서 도구 이름을 찾아서
도구 이름을 정확히 복사해서
'Apify 트윗 스크래퍼를 사용해서
XYZ 작업을 수행해'라고 말할 수 있습니다. 그러면
그러면 해당 도구를 사용할 수밖에 없습니다.
다시 한 번 말하지만, 이 도구는 API 엔드포인트를 어떻게 사용하는지 알아냅니다.
스크랩된 모든 참조 정보들을 종합해서 가져옵니다.
그리고 하단에 해당 회사들의 주소,
전화번호, 웹사이트는 물론,
구글 비즈니스 평점과
운영 시간까지 정리된 목록을 받게 됩니다.
리드 생성이나 아웃리치를 진행한다면,
상상해보세요.
지역 내 비즈니스를 찾는
매우 효율적인 방법이 될 것입니다.
원하는 결과를 달성하기 위해서 말입니다.
다음 예시는 단순히 약간의 분석과,
이런 스크래퍼들을 결합했을 때의
강력함을 보여줍니다.
여기서 저는 샘 알트만의 X 포스트를
최근 100개 트윗에서 스크랩하고,
핵심 주제를 요약하며,
해당 포스트들만을 바탕으로
OpenAI가 곧 출시할 것들을 예측해달라고 했습니다.
이 경우 우리는 추측하고 예측하려고 하는 것입니다.
트윗들에서 단서를 찾아서 말입니다.
결과적으로 샘 알트만의 최근 100개 트윗 분석을 바탕으로
핵심 주제들과 OpenAI 향후 출시에 대한
예측이 나왔다고 말합니다.
당연히 그가 X 계정에서
언급한 다양한 콘텐츠 카테고리들을 언급합니다.
하지만 여기 맨 아래를 보면,
그의 인용구 중 일부를 바탕으로
2025년에 대한 예측들이 있습니다.
예를 들어, 예상치 못한 매우 놀라운 것이
혁신적인 오픈 웨이트 모델 형태로 나올 것이라고 합니다.
그리고 'AI 핫 서머 출시'라는
인용구를 참조하면서 개발자용 새로운 도구나
ChatGPT를 넘어선 소비자 대상 제품들이
나올 것이라고 추측합니다.
그리고 맨 아래에는
일련의 핵심 인용구 분석이 나옵니다.
마치 개인 전용 미니 저널리스트를
둔 것과 같습니다.
이 인용구를 보면, '80%의 완료된 프로젝트들이
모두 마침내 완성되고
자동으로 유지될 것'이라고 하는데,
이는 샘 알트만이 AI가 프로젝트의 80%만
완료할 수 있던 상태에서
전체 프로젝트를 완료할 수 있게 될 것이라고
시사하고 있다는 것입니다.
AI가 프로젝트의 80%에서
전체 프로젝트 완료로 발전할 것이라는 의미입니다.
마지막 사용 사례에서는
LinkedIn에 적용했습니다.
저는 GenAI 컨설팅 회사를 시작하고 있고,
AI 엔지니어링과 관련된 직책의
최고의 인재를 찾고 싶다고 했습니다.
가능하면 구글이나 페이스북에서
근무했던 경험이 있는 사람들로요.
이 경우 저는 특정 지역의
특정 직책을 가진 사람들을 찾는 기준뿐만 아니라,
프로필을 스크랩하고 살펴보며
이런 FANG 회사에서 근무했는지 확인할
자율성도 부여했습니다.
그리고 여기서 토론토나
몬트리올 지역이 이상적이라고 했습니다.
LinkedIn 검색을 통해
연락해야 할 가장 적합한
10명의 후보를 제공해달라고 했습니다.
30초도 안 되어
실제로 여러 프로필을 검토하고
후보 목록을 가져왔습니다.
개인 정보 보호를 위해 여기서는
이름을 보여드리지 않겠지만,
10명의 이름과 왜 완벽한 후보인지에 대한
분석, 그리고 이 두 회사 중
한 곳에서 근무했다는 사실,
그리고 해당 역할에 가장 적합한
후보에 대한 우선순위 분석까지
제공해줍니다.
이것은 이 MCP 서버가 얼마나
강력하고 효과적인지의
빙산의 일각일 뿐입니다.
여러분이 직접 설정하시려면,
클라우드 데스크톱에 가져올 수 있는
메인 스키마를 아래 설명란의
첫 번째 링크에 남겨두겠습니다.
이런 콘텐츠가 마음에 드시고
온갖 매드 사이언티스트급 사용 사례들과
일상에서 도움이 될 수 있는
실제 사용 사례들을 더 보고 싶으시다면,
아래 설명란의 두 번째 링크를 확인하여
제 독점적인 얼리 AI 어답터
커뮤니티에 참여해주세요.
다음에 또 만나요.