[00:00]
단 하나의 프롬프트만 작성하면
[00:01]
AI가 어디서든 실시간 데이터를
[00:03]
가져올 수 있다고 상상해보세요. 인스타그램,
[00:05]
링크드인, X, 심지어 구글 지도까지. 게시물,
[00:08]
원하는 것이 무엇이든 정확히 말하기만 하면,
[00:10]
프로필이든 비즈니스
[00:12]
세부 정보든, AI가 알아서 가서
[00:14]
코딩 없이도 요청을 완료하고
[00:16]
원하는 정확한 데이터를
[00:18]
원하는 정확한 방식으로 제공합니다. 그리고
[00:20]
가장 좋은 점은 말 그대로 몇 분 안에
[00:22]
실행할 수 있다는 것입니다. 이
[00:24]
영상에서는 단계별로
[00:25]
Apify의 완전히 새로운 MCP 서버를
[00:27]
사용하는 방법을 안내해드리겠습니다. 클로드 데스크톱과 같은
[00:30]
언어 모델에 연결하기만 하면
[00:32]
즉시 몇 초 만에
[00:33]
모든 종류의 데이터를 스크래핑할 수 있습니다.
[00:36]
바로 시작해보겠습니다. Apify가
[00:37]
무엇인지 모르신다면, 기본적으로
[00:39]
마켓플레이스이거나 앱 스토어라고
[00:41]
생각하시면 됩니다. 플랫폼,
[00:43]
소셜미디어 웹사이트, 그리고
[00:44]
일반적인 웹사이트를 스크래핑할 수 있는
[00:47]
모든 종류의 애플리케이션들이 있습니다. 첫 번째
[00:48]
화면에서 보시는 것처럼, 틱톡,
[00:50]
구글 지도, 인스타그램용 스크래퍼들이 있고,
[00:53]
일반 웹사이트, 심지어 아마존용도 있습니다. 그리고
[00:56]
이 중 하나에 들어가면
[00:58]
무료로 체험해볼 수 있습니다. 각각은
[01:00]
고유한 비용 구조를 가지고 있으므로
[01:02]
어떻게 요금이 부과되는지
[01:04]
주의 깊게 살펴보셔야 합니다. 맨 위에서
[01:06]
보시면, 이 경우
[01:07]
실제로 스크래핑하는 천 개 결과당 6달러입니다.
[01:10]
예를 들어, 우리가 이 URL을 제공했다면
[01:12]
웹사이트에서 직접
[01:13]
테스트해볼 수 있습니다. 시작을
[01:15]
클릭하면, 이 작업이 실행되어
[01:17]
이 경우 아마존
[01:20]
웹사이트에서 다양한 제품들을
[01:22]
검색하기 시작합니다. 지금 여기서
[01:24]
많은 제품들을 처리하고 있고
[01:25]
제목, 브랜드, 별점, 그리고
[01:27]
해당 제품의 기본 URL과 같은
[01:29]
정보들을 얻고 있습니다. 따라서
[01:32]
추출하는 대부분의 데이터가
[01:34]
이런 형태로 보일 것이라고
[01:36]
상상하실 수 있습니다. 그리고 이 모든 것을
[01:37]
사용하고 있는 어떤 언어 모델로든
[01:39]
가져와서 분석이나
[01:41]
원하는 용도로 사용할 수 있는 핵심 메타데이터로
[01:43]
활용할 수 있습니다. 그리고
[01:45]
소셜미디어, AI, AI 에이전트,
[01:47]
리드 생성 등 다양한
[01:49]
카테고리별로 5,000가지의 서로 다른 옵션들을
[01:51]
선택할 수 있습니다. 정말 강력합니다.
[01:53]
MCP 서버가 무엇인지 모르신다면,
[01:54]
모델 컨텍스트 프로토콜의
[01:57]
줄임말입니다. 이 경우, 마켓플레이스에서
[01:59]
본 모든 다양한
[02:01]
액터들을 Apify를 통해
[02:03]
하나의 메인 자격 증명으로 사용할 수 있게
[02:05]
해줍니다. 2024년 이전에
[02:07]
서비스를 호출했다면, 일반적으로
[02:09]
특별한 키와 함께 어떤 형태의
[02:11]
요청을 보내야 했고, 이 키는 문을 여는
[02:13]
자격 증명이었습니다. 이 문에는
[02:15]
한 가지 유형의 데이터가 있을 수 있습니다. 메타데이터나
[02:17]
다른 무엇이든. MCP 서버의
[02:19]
세계에서는 하나의 키 또는
[02:21]
하나의 자격 증명 세트가 여러 문을
[02:23]
동시에 열 수 있습니다. 이전에는
[02:26]
스크래핑을 위해 각각 별도의 자격 증명을
[02:28]
생성해야 했다면
[02:30]
인스타그램을 스크래핑하는 것처럼, 이제 같은
[02:32]
자격 증명으로 인스타그램,
[02:34]
아마존 X, 페이스북 또는 원하는
[02:37]
앱을 스크래핑할 수 있습니다. 요점을
[02:39]
명확히 하기 위해, 슬랙을 사용하고
[02:40]
백엔드에서 해당 애플리케이션의
[02:42]
다양한 기능에 액세스하려고 한다고
[02:45]
상상해보세요. 일반적으로 언어
[02:46]
모델에게 '메시지를 보내고 싶어요,
[02:48]
그리고 메시지를 보내는 정확한
[02:50]
방법은 이렇습니다'라고 말해야 합니다.
[02:52]
또는 '메시지를 예약하고 싶어요,
[02:54]
그리고 그 메시지를 예약하는
[02:56]
정확한 방법은 이렇습니다'라고 말해야 했죠.
[02:58]
MCP 서버의 세계에서는 다양한
[03:00]
조건을 가진 하나의 요청을 만들 수
[03:02]
있고, 충분히 똑똑해서 모든 다른
[03:04]
문들을 열거나 이 경우에는 모든
[03:06]
다른 기능들을 열고 실행할 수
[03:08]
있으며, 가장 합리적인 순서로
[03:09]
가장 의미 있는 것들을 실행할 수
[03:11]
있습니다. 이제 실제로 Apify의
[03:13]
MCP 서버를 사용하고 호출하는
[03:14]
측면에서, 저는 여러 스크래퍼에
[03:17]
액세스할 수 있는 언어 모델과
[03:19]
대화할 수 있도록 Claude Desktop을
[03:21]
사용하고 있습니다. 이것을 클릭하면
[03:23]
제가 가진 모든 도구들을 볼 수
[03:24]
있고, 이 도구들 중 일부는 실제로
[03:26]
제가 가진 요청에 대해 어떤 다른
[03:28]
서비스가 존재하는지 확인하기 위해
[03:30]
Apify를 검색하는 데 도움이 됩니다.
[03:32]
만약 실제로 특정 액터나 스크래퍼에
[03:35]
가입하거나 연결하지 않았다면,
[03:37]
이것은 플랫폼에서 최고의 것들을
[03:40]
찾는 데 도움이 될 수 있고,
[03:42]
특정 리뷰 수준, 특정 가격 등에서
[03:44]
찾는 데도 도움이 됩니다. 맨 아래로
[03:46]
스크롤하면 제가 Claude Desktop에
[03:48]
연결한 모든 다른 액터나
[03:49]
스크래퍼들을 볼 수 있습니다.
[03:52]
실제로 통합하는 방법은 매우 간단합니다.
[03:54]
해야 할 일은 상단의 Claude로
[03:55]
가는 것뿐입니다. 설정으로 가서
[03:57]
개발자 설정을 클릭하면 됩니다.
[03:59]
여기서 설정 편집을 클릭하면
[04:01]
컴퓨터에서 JSON 파일이 열리고,
[04:03]
제가 제공할 코드를 붙여넣어서
[04:05]
기본적으로 원하는 모든 액터를
[04:07]
구성할 수 있습니다. 해야 할 일은
[04:09]
설정 편집을 클릭하는 것뿐입니다.
[04:11]
폴더가 열리고 이 파일을 클릭하면
[04:13]
현재 가지고 있는 모든 자격 증명이
[04:14]
표시됩니다. 여기서 몇 가지 다른
[04:17]
서비스가 있는 것을 볼 수 있습니다.
[04:18]
Claude Desktop을 전혀 사용하지
[04:19]
않았다면 이것은 빈 파일이 될
[04:21]
것이고, 실제로 관리하기가 더 쉽습니다.
[04:22]
하지만 여기서 액터 MCP 서버가
[04:24]
있는 것을 볼 수 있습니다. 여기에
[04:26]
알아보기 어려운 문자들이 있고,
[04:28]
실제 서비스 이름인 Apify 액터
[04:31]
MCP 서버가 있습니다. 그리고
[04:33]
기본적으로 연결하고 싶은 다른
[04:34]
스크래퍼들의 목록입니다.
[04:38]
Apollo, YouTube, Google Maps,
[04:39]
TikTok, Instagram 등과 같은
[04:41]
제가 여기에 가진 것들을 볼 수 있습니다.
[04:43]
또 다른 서비스를 추가하는 것은
[04:46]
매우 쉽습니다. 해야 할 일은
[04:48]
Apify로 돌아가서 e-commerce 같은
[04:51]
카테고리로 가서 여기 첫 번째 서비스를
[04:53]
클릭하는 것뿐입니다.
[04:56]
Facebook 광고 스크래퍼입니다.
[04:58]
Facebook 광고 스크래퍼를 클릭할 수 있습니다.
[05:01]
당연히 원하는 결과를 제공하는지
[05:02]
다시 한번 확인해야 합니다. 그래서
[05:04]
이것을 실행해서 어떤 종류의
[05:05]
결과가 나오는지 확인해보겠습니다.
[05:07]
유용하다고 판단되면 가격을 확인해서
[05:10]
제 사용 사례에 합리적인지 확인합니다.
[05:11]
많은 서비스들이 무료이지만
[05:12]
유료인 것들도 있습니다.
[05:14]
이 파일에 추가해야 할 것은
[05:16]
말 그대로 이 이름뿐입니다.
[05:18]
Apify Facebook 광고 스크래퍼.
[05:20]
이 복사 버튼을 클릭하고
[05:22]
파일에 다시 붙여넣기 하겠습니다.
[05:24]
해야 할 일은 쉼표를 넣고
[05:26]
붙여넣기 하고 쉼표로 끝내는 것입니다.
[05:28]
파일을 저장합니다. 그리고
[05:30]
이것을 닫고 Claude를 재시작하면
[05:33]
드롭다운에서 볼 수 있습니다.
[05:35]
거의 즉시 이 드롭다운을
[05:37]
클릭할 수 있습니다. 기억하시면
[05:38]
전에는 27개였는데 이제 28개입니다.
[05:41]
클릭해서 맨 아래로 스크롤하면
[05:43]
이 Apify Facebook 광고 스크래퍼가
[05:44]
사용할 준비가 된 것을 볼 수 있습니다.
[05:47]
어떤 이유로든 특정 서비스의
[05:49]
연결을 해제하고 싶다면
[05:51]
여기서 토글을 끄거나
[05:53]
Claude 설정에서 봤던 파일로 가서
[05:55]
목록에서 삭제하면 됩니다.
[05:57]
모든 설정이 완료되었으니
[05:58]
이제 테스트해보겠습니다.
[06:00]
다음과 같이 간단하게 요청할 수 있습니다:
[06:03]
다음 YouTube 동영상을 살펴보고
[06:04]
스크립트나 전사본을 그대로 제공하고
[06:07]
전체 분석을 수행해서
[06:09]
마인드맵을 만들기 위한
[06:12]
mermaid 다이어그램을 만들어줘.
[06:14]
이 경우 제 비디오 중 하나에서
[06:16]
링크를 가져와서 여기에 넣고
[06:19]
확장 사고 기능을 활성화하고
[06:20]
가장 똑똑한 모델 중 하나인
[06:23]
Claude Opus를 사용하겠습니다.
[06:24]
자체 웹 검색 기능을 포함해
[06:26]
액세스할 수 있는 서비스 중에서
[06:29]
이 요청에 가장 적합한 것을
[06:31]
결정할 수 있어야 합니다.
[06:32]
이것을 보내면 다양한
[06:34]
사고 패턴을 보기 시작할 것입니다.
[06:36]
이제 YouTube에서 전사본을
[06:37]
추출하는 데 도움을 주겠다고 합니다.
[06:39]
Apify의 YouTube 전사본 스크래퍼를
[06:42]
사용하는 것이 아마도 최선의
[06:44]
조치라고 판단합니다. 그리고
[06:45]
이제 필요한 API 요청을 정확히
[06:48]
어떻게 채워야 하는지 알고 있습니다.
[06:50]
참고로, 일반적으로는 이것을
[06:51]
직접 알아내야 합니다.
[06:52]
Aidean이나 Make.com 또는
[06:54]
Zapier에서 이런 작업을 한다면
[06:56]
특정 결과를 얻기 위해
[06:58]
요청을 어떻게 구조화해야 하는지
[07:00]
알아내야 합니다. 그리고 이 AI는
[07:03]
액터를 찾고 요청을 보낼 뿐만 아니라
[07:05]
정보를 검색하고 전체 전사본이
[07:07]
없다는 것을 깨닫고 반성해서
[07:08]
바로 전체 전사본을
[07:10]
만들어낼 정도로 똑똑합니다.
[07:11]
이렇게 전사본, 전체 비디오 요약,
[07:14]
그리고 일련의 마인드맵을 제공합니다.
[07:16]
여기를 확대해보면, 이것은
[07:18]
제가 만든 AI 에이전트 NDN 비디오를
[07:20]
설명하는 mermaid 다이어그램으로
[07:22]
실제로 그것을 작동시키는 방법입니다. 조금 아래로 가보면
[07:23]
여기에 마인드맵을 만든 것을 볼 수 있습니다.
[07:25]
여기를 확대해보면, 확실히 여기에는
[07:27]
많은 것들이 진행되고 있습니다.
[07:29]
좀 더 간결하게 하라고 말할 수도 있지만
[07:30]
단 하나의 액션과 하나의 URL만으로
[07:32]
평소라면 별도의 자동화가 필요한 작업을
[07:35]
이제 할 수 있게 되었습니다.
[07:37]
다음으로 시도한 실험은
[07:38]
틱톡에서 실행한 것인데, 저는 그냥
[07:40]
'#AI ASMR 해시태그가 있는 틱톡 영상을 찾아줘'라고 말했습니다.
[07:43]
그것이 무엇인지 모르신다면
[07:44]
기본적으로 틱톡의 완전히 새로운 트렌드로
[07:46]
사람들이 구글 Veo3 모델을 사용해서
[07:49]
과일을 매우 천천히 자르는
[07:51]
숏폼 비디오를 만드는 것입니다.
[07:54]
여기 아래로 가보면, 스크래핑할 영상을
[07:56]
20개만 하라고 지시했습니다.
[07:58]
기본적으로는 100개까지 할 수 있는 것 같습니다.
[08:00]
그리고 일련의 계정들을 살펴보면서
[08:02]
게시된 날짜, 조회수, 좋아요, 댓글 수를 확인하고
[08:04]
실제로 영상을 보고 싶다면
[08:06]
직접 열어볼 수 있는 링크로
[08:08]
바로 볼 수 있게 해줍니다.
[08:10]
여기 바로 하나의 예시를 볼 수 있습니다.
[08:12]
소리는 들을 수 없지만
[08:14]
실제로 다양한 슬라임 영상이나
[08:16]
슬로우모션으로 과일 자르는 영상들을 볼 수 있습니다.
[08:19]
이것이 좋은 예시가 될 것 같습니다.
[08:22]
여기 이것으로 가서 열어보면
[08:23]
바로 여기에서 보시는 것처럼
[08:26]
기본적으로 과일을 매우 슬로우모션으로 자르는 것입니다.
[08:28]
그리고 이것이 이제 아무 이유 없이
[08:31]
하루아침에 거대한 계정들을 만들어내고 있습니다.
[08:33]
하지만 어쨌든, 평소 Claude가
[08:36]
기본적으로는 할 수 없는 이런 데이터를
[08:38]
스크래핑할 수 있게 되었습니다.
[08:39]
다음으로 시도한 사용 사례는
[08:41]
인스타그램 스크래퍼를 사용하는 것입니다.
[08:43]
여기서 제가 한 말은 단순히 '이 인스타그램 페이지에서
[08:45]
최근 10개 게시물을 가져와'였습니다.
[08:47]
정확한 페이지를 제공했고, 그러면
[08:50]
제가 연결해둔 Apify 인스타그램 스크래퍼를
[08:52]
사용해야 한다는 것을 인식합니다.
[08:54]
그러면 검색한 데이터셋 항목들을 가져와서
[08:56]
동일한 종류의 출력을 생성합니다.
[08:58]
여기 있는 실제 출력은 꽤 기본적이지만
[09:00]
훨씬 더 포괄적인 프롬프트나
[09:02]
수행하려는 분석이 있다면
[09:04]
동일한 프롬프트 내에서 여러 스크래퍼를 호출해서
[09:06]
그것을 조율할 수 있다고 상상해볼 수 있습니다.
[09:08]
그리고 여기에는 게시 날짜, 캡션, 좋아요, 댓글이
[09:10]
이전 것과 마찬가지로 있습니다.
[09:12]
그리고 다시 한번, 특정 게시물이나
[09:14]
해당 인스타그램 페이지의 영상에 대한
[09:16]
직접 링크를 얻을 수 있습니다.
[09:19]
또는 찾고 있는 어떤 인스타그램 페이지든지 말이죠.
[09:21]
다음으로 시도한 것은
[09:23]
구글 맵 스크래퍼였습니다.
[09:24]
여기서 저는 '토론토, 캐나다에서
[09:26]
태양광 회사 20개와 그들의 비즈니스 정보를 찾아줘'라고 했습니다.
[09:29]
그리고 이 경우에는 '구글 맵을 사용해서'라고
[09:31]
명시했습니다. 제가 이렇게 구체적으로 말한 이유는
[09:33]
기술적으로는 웹 검색으로도 가능하지만
[09:34]
같은 수준의 세부 정보는 얻지 못할 수도 있기 때문입니다.
[09:37]
그래서 여기서는 매우 구체적으로 했는데
[09:39]
이것이 도움이 됩니다.
[09:40]
그리고 프로 팁으로, 원하는 도구를
[09:42]
사용하지 않는다는 것을 발견하면
[09:44]
실제로 가서 도구 이름을 찾아서
[09:45]
도구 이름을 정확히 복사해서
[09:48]
'Apify 트윗 스크래퍼를 사용해서
[09:51]
XYZ 작업을 수행해'라고 말할 수 있습니다. 그러면
[09:56]
그러면 해당 도구를 사용할 수밖에 없습니다.
[09:58]
다시 한 번 말하지만, 이 도구는 API 엔드포인트를 어떻게 사용하는지 알아냅니다.
[10:00]
스크랩된 모든 참조 정보들을 종합해서 가져옵니다.
[10:02]
그리고 하단에 해당 회사들의 주소,
[10:04]
전화번호, 웹사이트는 물론,
[10:06]
구글 비즈니스 평점과
[10:08]
운영 시간까지 정리된 목록을 받게 됩니다.
[10:10]
리드 생성이나 아웃리치를 진행한다면,
[10:12]
상상해보세요.
[10:13]
지역 내 비즈니스를 찾는
[10:15]
매우 효율적인 방법이 될 것입니다.
[10:17]
원하는 결과를 달성하기 위해서 말입니다.
[10:19]
다음 예시는 단순히 약간의 분석과,
[10:20]
이런 스크래퍼들을 결합했을 때의
[10:22]
강력함을 보여줍니다.
[10:23]
여기서 저는 샘 알트만의 X 포스트를
[10:26]
최근 100개 트윗에서 스크랩하고,
[10:29]
핵심 주제를 요약하며,
[10:31]
해당 포스트들만을 바탕으로
[10:34]
OpenAI가 곧 출시할 것들을 예측해달라고 했습니다.
[10:36]
이 경우 우리는 추측하고 예측하려고 하는 것입니다.
[10:38]
트윗들에서 단서를 찾아서 말입니다.
[10:39]
결과적으로 샘 알트만의 최근 100개 트윗 분석을 바탕으로
[10:44]
핵심 주제들과 OpenAI 향후 출시에 대한
[10:46]
예측이 나왔다고 말합니다.
[10:48]
당연히 그가 X 계정에서
[10:50]
언급한 다양한 콘텐츠 카테고리들을 언급합니다.
[10:52]
하지만 여기 맨 아래를 보면,
[10:54]
그의 인용구 중 일부를 바탕으로
[10:56]
2025년에 대한 예측들이 있습니다.
[10:58]
예를 들어, 예상치 못한 매우 놀라운 것이
[10:59]
혁신적인 오픈 웨이트 모델 형태로 나올 것이라고 합니다.
[11:01]
그리고 'AI 핫 서머 출시'라는
[11:03]
인용구를 참조하면서 개발자용 새로운 도구나
[11:08]
ChatGPT를 넘어선 소비자 대상 제품들이
[11:10]
나올 것이라고 추측합니다.
[11:12]
그리고 맨 아래에는
[11:14]
일련의 핵심 인용구 분석이 나옵니다.
[11:16]
마치 개인 전용 미니 저널리스트를
[11:18]
둔 것과 같습니다.
[11:20]
이 인용구를 보면, '80%의 완료된 프로젝트들이
[11:22]
모두 마침내 완성되고
[11:24]
자동으로 유지될 것'이라고 하는데,
[11:26]
이는 샘 알트만이 AI가 프로젝트의 80%만
[11:29]
완료할 수 있던 상태에서
[11:30]
전체 프로젝트를 완료할 수 있게 될 것이라고
[11:32]
시사하고 있다는 것입니다.
[11:34]
AI가 프로젝트의 80%에서
[11:36]
전체 프로젝트 완료로 발전할 것이라는 의미입니다.
[11:38]
마지막 사용 사례에서는
[11:40]
LinkedIn에 적용했습니다.
[11:42]
저는 GenAI 컨설팅 회사를 시작하고 있고,
[11:44]
AI 엔지니어링과 관련된 직책의
[11:46]
최고의 인재를 찾고 싶다고 했습니다.
[11:48]
가능하면 구글이나 페이스북에서
[11:50]
근무했던 경험이 있는 사람들로요.
[11:52]
이 경우 저는 특정 지역의
[11:54]
특정 직책을 가진 사람들을 찾는 기준뿐만 아니라,
[11:57]
프로필을 스크랩하고 살펴보며
[11:59]
이런 FANG 회사에서 근무했는지 확인할
[12:01]
자율성도 부여했습니다.
[12:04]
그리고 여기서 토론토나
[12:05]
몬트리올 지역이 이상적이라고 했습니다.
[12:07]
LinkedIn 검색을 통해
[12:09]
연락해야 할 가장 적합한
[12:11]
10명의 후보를 제공해달라고 했습니다.
[12:13]
30초도 안 되어
[12:14]
실제로 여러 프로필을 검토하고
[12:16]
후보 목록을 가져왔습니다.
[12:18]
개인 정보 보호를 위해 여기서는
[12:20]
이름을 보여드리지 않겠지만,
[12:21]
10명의 이름과 왜 완벽한 후보인지에 대한
[12:24]
분석, 그리고 이 두 회사 중
[12:26]
한 곳에서 근무했다는 사실,
[12:28]
그리고 해당 역할에 가장 적합한
[12:29]
후보에 대한 우선순위 분석까지
[12:31]
제공해줍니다.
[12:33]
이것은 이 MCP 서버가 얼마나
[12:35]
강력하고 효과적인지의
[12:36]
빙산의 일각일 뿐입니다.
[12:38]
여러분이 직접 설정하시려면,
[12:41]
클라우드 데스크톱에 가져올 수 있는
[12:42]
메인 스키마를 아래 설명란의
[12:43]
첫 번째 링크에 남겨두겠습니다.
[12:45]
이런 콘텐츠가 마음에 드시고
[12:47]
온갖 매드 사이언티스트급 사용 사례들과
[12:48]
일상에서 도움이 될 수 있는
[12:50]
실제 사용 사례들을 더 보고 싶으시다면,
[12:52]
아래 설명란의 두 번째 링크를 확인하여
[12:54]
제 독점적인 얼리 AI 어답터
[12:55]
커뮤니티에 참여해주세요.
[12:57]
다음에 또 만나요.