n8n으로 유튜브 영상 자막 스크랩하기 – 전체 워크플로우

채널 아이콘
AI Foundations 구독자 237,000명

요약

이 영상은 유튜브 영상의 자막을 자동으로 추출하여 AirTable 데이터베이스에 저장하고, 나중에 벡터 데이터베이스와 연동해 심층 분석 및 대화형 인터페이스로 활용할 수 있는 전체 자동화 워크플로우를 소개합니다. 영상에서는 URL 하나만 입력하면 10초 내에 자막을 받아올 수 있는 과정을 상세히 설명하며, n8n, AirTable, Apify 등 다양한 도구의 활용법을 단계별로 시연합니다. 또한, 코드 노드를 이용해 복잡한 자막 데이터를 깔끔하게 포맷팅하고, 이후 추가 연구나 콘텐츠 재활용에 도움이 되는 벡터 DB 연동 가능성도 언급합니다. 마지막으로, 관련 커뮤니티와 추가 리소스 안내를 통해 시청자가 더욱 심도 있는 학습을 할 수 있도록 독려합니다.

주요 키워드

YouTube 자막 n8n AirTable Apify 자동화 웹훅 API 벡터 데이터베이스 코드 노드 트리거

하이라이트

  • 🔑 워크플로우 소개: 유튜브 영상 자막을 AirTable에 저장한 후 벡터 데이터베이스와 연동해 대화형 에이전트를 구현하는 전체 과정이 설명됩니다.
  • ⚡️ URL 제출 자동화: 영상에서 폼에 유튜브 URL을 입력하는 것만으로 10초 내에 자막이 자동으로 추출되어 저장되는 과정을 시연합니다.
  • 🌟 AirTable 구성: 영상 제목, 설명, 자막 등 여러 필드를 포함한 데이터베이스를 처음부터 만드는 방법을 자세하게 안내합니다.
  • 🚀 n8n과 웹훅: n8n의 웹훅 트리거를 사용해 URL 제출 시 자동으로 작업이 시작되는 구조가 강조됩니다.
  • 📌 Apify 연동: Apify 플랫폼을 사용하여 저렴한 비용으로 유튜브 자막 데이터를 가져오고, 이를 HTTP 요청 및 API 연동으로 처리하는 방법을 다룹니다.
  • 🌐 코드 노드 활용: 복잡한 자막 데이터를 정리해 보기 쉬운 형식으로 변환하는 코드 노드 사용법을 통해 데이터 포맷팅 과정을 설명합니다.
  • 📈 벡터 데이터베이스 잠재력: 추출된 자막 데이터를 벡터화하여 심층 검색과 AI 기반 대화 시스템 구축에 활용할 수 있는 미래 가능성을 제시합니다.
  • 🔧 커뮤니티 및 추가 리소스: 강의 커뮤니티 가입 및 추가 자료 제공을 통해 시청자가 지속적으로 학습할 수 있도록 독려합니다.

용어 설명

n8n

오픈 소스 워크플로우 자동화 툴로, 다양한 API와 서비스들을 연결해 자동화 프로세스를 구성할 수 있음.

AirTable

사용자 친화적인 클라우드 기반 데이터베이스 서비스로, 데이터를 표 형식으로 관리하며 협업에 유용함.

Apify

웹 스크래핑 및 자동화 플랫폼으로, 저렴한 비용에 웹 데이터를 손쉽게 추출할 수 있도록 지원함.

벡터 데이터베이스

텍스트나 이미지 데이터를 벡터화하여 심층 검색 및 AI 기반 대화형 시스템 구축에 활용하는 데이터 저장소.

[00:00:00] 워크플로우 개요 및 소개

영상은 유튜브 자막 스크랩 및 분석 워크플로우 개념을 소개합니다. 전체 시스템의 큰 그림과 자동화의 장점을 설명합니다.

3단계 워크플로우 소개: 유튜브 자막을 에어테이블 데이터베이스에 저장하고 RAG 시스템으로 벡터화하여 에이전트와 대화할 수 있는 시스템 설명
[00:00:38] 사례 시연: URL 제출과 자동화 실행

실제 유튜브 URL을 폼에 입력하여 자동화가 실행되는 모습을 보여줍니다. 짧은 시간 내에 자막이 수집되는 과정을 확인할 수 있습니다.

실제 사용 예시: Productive Dude의 블로그 작성 에이전트 영상을 통해 URL 복사와 폼 제출만으로 10초 안에 자동으로 자막을 데이터베이스에 저장하는 과정 시연
시스템의 확장 기능: 경쟁사 리서치, 해시태그 추출, 채널/비디오 태그 분석 등 다양한 기능과 파인콘 데이터베이스를 통한 벡터화 기능 소개
실제 활용 사례: 자막 내용에 대한 구체적인 질문이 가능하며, 벡터화를 통해 수천 자의 자막 중에서 필요한 정보를 정확히 찾아낼 수 있는 기능 설명
벡터 데이터베이스를 활용하여 40분 분량의 영상 자막에서 정보를 추출하고, 이를 프롬프트와 함께 문맥으로 활용하는 방법을 설명합니다.
YouTube 자막을 Airtable 데이터베이스로 가져오는 자동화 시스템 구축 방법을 소개합니다.
대부분의 사람들이 자동화 구축 시 '템플릿 수갑'에 갇혀 있어, 실제 작동 원리를 이해하지 못하는 문제점을 지적합니다.
AI를 기초부터 고급 에이전트 시스템 구축까지 배울 수 있는 커뮤니티를 소개하고, 30개 이상의 n8n 강좌 모듈을 제공합니다.
자동화 시스템 구축에 필요한 핵심 도구로 Airtable, n8n, Apify를 소개하고 각각의 역할을 설명합니다.
Apify 서비스의 비용에 대해 설명하며, 천 개의 영상 처리에 약 50달러가 든다고 안내합니다. Apify와 Airtable 계정 생성이 필요함을 언급합니다.
Airtable에서 데이터베이스 생성을 시작합니다. 기본 필드를 설정하고 'video name', 'description', 'transcript' 필드를 만듭니다.
추가 필드 설정을 진행합니다. video URL 필드를 추가하고, single select 타입의 stage 필드를 생성하여 transcript 상태를 관리할 수 있도록 설정합니다.
[00:06:17] AirTable 데이터베이스 및 폼 구성

AirTable에서 새 데이터베이스를 생성하고 영상 이름, 설명, 자막 등 필요한 필드를 설정하는 방법을 단계별로 시연합니다. 폼 뷰를 구성해 URL 입력을 간소화합니다.

테이블 구조를 정리하고 이름을 'YouTube videos'로 지정합니다. 첫 번째 뷰를 'all transcripts'로 설정하고, 폼 뷰를 생성하여 데이터 입력 인터페이스를 구성합니다.
폼 생성이 완료되었고, 동영상 URL을 입력하기 위해서는 '폼 열기' 버튼을 클릭해야 합니다.
Airtable에서 자동화를 설정하여 새로운 비디오 URL이 제출되면 n8n으로 웹훅 데이터를 전송할 수 있도록 합니다.
테스트 필드를 추가하고 자동화 설정을 시작합니다. 폼 제출 트리거를 설정하고 YouTube 비디오 테이블과 연결합니다.
[00:09:11] n8n 자동화 트리거와 웹훅 연결

n8n에서 웹훅 트리거를 설정하여 URL 입력 시 자동으로 데이터가 처리되도록 합니다. AirTable과의 연동 과정을 통해 자동 업데이트를 구현합니다.

레코드 업데이트 기능을 추가하고 비디오 URL 필드를 설정합니다. 웹훅 연결을 위한 스크립트 실행을 준비합니다.
n8n 코스의 강의실에 모든 리소스를 보관하고 있으며, 필요한 스크립트와 설정 방법을 공유합니다.
커뮤니티 멤버들은 미리 준비된 블루프린트를 다운로드하여 쉽게 설정을 완료할 수 있습니다.
워크플로우 구축을 시작하면서 이름을 'URL to transcript'로 설정하고, 첫 단계로 웹훅을 구성합니다.
웹훅 설정 시 보안을 위해 URL을 공개하지 않도록 주의하고, 테스트용 URL을 복사하여 자동화 설정에 적용합니다.
[00:11:17] Apify 통합: HTTP 요청과 API 연동

Apify API를 통해 유튜브 자막 데이터를 추출하는 HTTP 요청을 구성합니다. API 키 설정과 함께, 요청 결과를 n8n 워크플로우에 통합하는 방법을 설명합니다.

Set 필드를 추가하여 URL과 record ID 필드를 설정하고, 데이터 매핑을 위한 준비를 합니다.
실제 YouTube 영상 URL을 사용하여 테스트를 진행하고, 폼 제출을 통해 웹훅 요청이 정상적으로 작동하는지 확인합니다.
웹훅에서 전송된 데이터를 필드에 매핑하고, 다음 단계로 Apify 액터 설정을 준비합니다.
Apify 계정 설정과 API 키 생성 방법을 설명합니다. 영상 1,000개당 50센트의 요금이 부과되며, API와 통합 섹션에서 개인 API 토큰을 생성할 수 있습니다.
HTTP 요청 설정 과정을 설명합니다. cURL 임포트를 사용하여 요청을 구성하고, JSON 형식으로 변경하는 방법을 보여줍니다.
설정된 자동화 워크플로우의 테스트 과정을 진행합니다. URL 테스트와 HTTP 요청 테스트를 통해 영상 정보가 제대로 가져와지는지 확인합니다.
다음 단계로 자막을 가져오기 위한 추가 HTTP 요청 설정을 시작합니다.
자막 데이터를 가져오기 위해 GET 요청을 설정하고, caption tracks base URL을 찾아 입력합니다.
[00:16:27] 코드 노드를 통한 자막 형식화 및 데이터 통합

복잡하게 받아온 자막 데이터를 코드 노드를 통해 정리하고, 여러 소스의 데이터를 하나의 통합 리스트로 합칩니다. 이 데이터를 다시 AirTable에 업데이트하는 과정을 보여줍니다.

코드 노드를 사용하여 추출된 자막을 깔끔한 형식으로 변환하는 과정을 진행합니다.
정리된 자막 데이터를 데이터베이스에 추가하기 위해 merge 도구를 사용하여 3개의 입력을 통합합니다.
Aggregate 노드를 사용하여 모든 데이터를 단일 리스트로 통합하고, Airtable에 최종 데이터를 추가하기 위한 준비를 합니다.
Airtable에 자막 데이터를 추가하기 위한 자격 증명 설정 방법을 설명합니다.
에어테이블 토큰 설정과 스코프 지정 방법을 설명합니다. YT transcript agent라는 이름으로 토큰을 생성하고, 필요한 데이터 접근 권한을 설정합니다.
데이터베이스 연결 설정을 완료하고 n8n에서 직접 편집이 가능하도록 설정합니다.
자동화 워크플로우를 테스트하고 실제 유튜브 영상 URL을 이용해 전체 프로세스를 검증합니다.
[00:21:11] 최종 테스트, 업데이트 및 결론

자동화 전체 프로세스를 최종 테스트하며, 업데이트된 AirTable 데이터를 확인합니다. 마무리로 커뮤니티 참여와 추가 학습 자료 안내를 통해 끝맺습니다.

다음 단계로 벡터 데이터베이스 활용과 트랜스크립트 대화 기능을 소개하며, 커뮤니티 가입을 통해 더 많은 리소스와 기능을 제공받을 수 있음을 설명합니다.
오늘은 제가 만든 3단계 워크플로우를
보여드리려고 합니다.
이 워크플로우로 유튜브 자막을 가져와서
에어테이블 데이터베이스에
전체 자막을 저장하고
나중에 RAG와 같은 시스템에서
벡터화하여 에이전트와 함께
유튜브 영상에 대해 대화할 수 있습니다.
영상의 특정 부분을 선택하여
질문하고 심층 연구를 할 수 있으며
원하는 모든 것을 할 수 있습니다.
하지만 오늘 보여드릴 주요 자동화는
유튜브 자막을
에어테이블 데이터베이스로 가져오는 것입니다.
비디오 URL만 붙여넣으면
모든 게 자동으로 처리됩니다.
실제로 어떻게 작동하는지 보여드리죠.
예를 들어 Productive Dude의
블로그 작성 에이전트 만들기 영상을 보고 있다고 합시다.
이 영상이 마음에 들어서
더 자세히 알아보고 싶다면
그가 무엇을 이야기하는지
블로그 포스트를 어떻게 생성하는지
자세히 알고 싶을 때
URL을 복사하기만 하면 됩니다.
그리고 폼에 붙여넣고
제출하면 약 10초 안에
이 자동화가 백그라운드에서 실행되어
자막 워크플로우가
실행되고, 여기서
유튜브 자막을 데이터베이스에
추가하고 이렇게
'transcript complete'로 표시됩니다.
말 그대로 10초 만에
40분짜리 영상의 전체 자막이
여기에 저장됩니다.
이후에는 이것을 벡터화할 수도 있습니다.
오늘은 이것을 어떻게 하는지
유튜브 자막을 어떻게 가져오는지
보여드리겠지만
먼저 이 자동화의
미래 모습을 보여드리고 싶습니다.
경쟁사 리서치도 할 수 있고
설명란에 있는 내용도 추가되며
사용된 해시태그도 포함됩니다.
채널 태그와 비디오 태그도
추가할 수 있어서
다양한 작업이 가능하죠.
또한 이 자막을
벡터 데이터베이스에 업로드하여
자막과 대화할 수 있습니다.
예를 들어보겠습니다.
이 자동화에서는
자동으로 자막을
파인콘 데이터베이스에 추가합니다.
테스트 워크플로우를 실행하면
새로운 항목을 테이블에서 검색하고
벡터 저장소에 추가합니다.
보시다시피 139개의 새로운 레코드가 생성되었고
상태가 자동으로
'벡터화됨'으로 업데이트되었습니다.
이것이 어떻게 작동하는지
간단한 예를 보여드리겠습니다.
방금 가져온 영상에서
카터가 언급한 평범한 블로그 포스트 작성에
얼마나 걸린다고 했는지 알고 싶다면
데이터베이스 내 모든 자막의
특정 부분에 대해
구체적인 질문을 할 수 있습니다.
이 자막들이 수천 자에 달하지만
제가 사용하는 모든 자막에
접근할 수 있습니다.
벡터화 방식 덕분에
특정 부분을 문맥으로 가져올 수 있죠.
평범한 블로그 포스트에 대한 질문을
해보면서 얼마나 세밀하게 작동하는지 보여드리겠습니다.
이것이 얼마나 세밀하게 작동하는지 보여드리겠습니다.
만들어볼까요?
에이전트를 만들지 않고 평범한 블로그 포스트를
만드는 데 4-5시간 정도 걸린다고 합니다.
그리고 벡터 데이터베이스를 검색할 건데,
이 쿼리를 사용해서
이 쿼리로
작은 샘플을 추출하여
영상에서 정보를 가져올 겁니다.
보시다시피 카터가 말한 내용을
직접 가져오는데, 참고로
제가 3-5개 정도의 40분짜리
영상을 여기 가지고 있어서
40분 분량의 자막에서 추출하여
제 프롬프트와 함께 문맥으로 사용합니다.
이 벡터 데이터베이스는 마법처럼 작동합니다.
오늘은 YouTube 자막 자동화 시스템
구축 방법을 보여드리겠습니다.
YouTube에서 자막을 추출하여
Airtable 데이터베이스로 가져오고
그 다음에 원하는 대로
자막을 활용할 수 있습니다. 전체 빌드는
AI 파운데이션 커뮤니티에
모두 있지만, 오늘은 간단하게
진행하겠습니다. 대부분 사람들이 겪는
가장 큰 문제는 자동화의 특정 부분에서
막힌다는 것입니다.
자동화 구축 방법을
알고 싶어하지만 제가 '템플릿
수갑'이라고 부르는
상황에 갇혀 있습니다.
YouTube에서 찾거나
커뮤니티에서 에이전트를
구매하지만 작동 원리를
모릅니다. 그래서 카터와 저는 방금 예시로
언급했던 제 동생인데요,
우리가 한 일은
여러분이 AI를 처음부터 끝까지
배울 수 있는 커뮤니티를 만들었습니다.
기초부터 시작해서
제가 보여드린 것과 같은 에이전트 시스템
구축까지 배울 수 있습니다.
현재 30개 이상의 n8n 강좌 모듈이 있고
강의실 섹션에는 모든
기초 내용이 있어서
빠르게 따라올 수 있습니다.
이 과정은 에이전트 구축에 필요한
모든 것을 처음부터 다룹니다.
수많은 시간의 모듈이 있고
에이전트 빌드도 포함되어 있어서
워크플로우에 복사하여 붙여넣을 수 있습니다.
예를 들어, 놀라운 성능의
딥 리서치 에이전트가 있고
쉽게 다운로드할 수 있는 블루프린트가 있습니다.
만약 이러한 에이전트를 만드는 데 필요한
지식을 실제로 배우고 싶다면
저희와 함께하시는 것을
강력히 추천드립니다. 링크는
설명란이나 상단 고정
댓글에 남겨두겠습니다.
가입하시면 자기소개를
꼭 해주세요. 소개 게시글에
8,000개 이상의 댓글이 있고 여러분을
알아가는 것을 좋아합니다.
따뜻한 환영을 준비하고 있습니다.
이제 자동화 시스템으로 넘어가겠습니다.
이것을 위해 필요한
도구들이 있는데, 먼저 Airtable이 필요합니다.
모든 정보를 저장할
공간이 필요한데, Airtable이 가장 좋은 시스템입니다.
물론 n8n도 필요한데, 이것으로
자동화를 구축할 것이고
마지막으로 Apify라는 것이 필요합니다.
이것은 매우 저렴한
비용으로 이용할 수 있습니다.
천 개의 영상의 경우
50달러 정도 비용이 들어요. Apify 계정을 만드시고
Airtable 계정도 만드셔서 시작해보겠습니다
먼저 Airtable부터 시작할 건데
우리가 해야 할 일은
방금 보신 것과 같은 데이터베이스를 만드는 거예요
제가 지금 create를 누르고
처음부터 새로 시작하겠습니다
여기서 이름을 YT DB라고 지정할게요
YouTube 데이터베이스의 약자로요
name 필드는 남겨두되
이 name 필드의 이름을 다른 것으로
변경하고 싶은데요
name 대신 video name으로 바꾸겠습니다
single text는 그대로 두고
notes를 description으로 변경할 거예요
유튜브 영상 설명을 넣을 수 있도록
description 필드를 복제하고
description 필드를 복제해서
long text 형식이니까
transcript용으로 완벽하게 사용할 수 있을 거예요
이 필드 이름을 transcript로 지정하고
저장한 다음 몇 가지 필드를 더 추가해야 해요
video URL을 위한 필드를 추가할 건데
sign을 하거나... 아니면 그냥
이 필드들을 삭제하고
처음부터 어떻게 하는지 보여드리겠습니다
video name, description, transcript를 만든 후에
description과 transcript가
long text이고
Rich Text 포맷팅이 비활성화되어 있는지 확인하세요
그리고 이 add 버튼을 클릭하고
'필드 찾기'에서
타입을 선택하세요
URL을 선택하고 이 필드 이름을
video URL로 지정합니다
create field를 누르고 나서
그 다음에는
status 필드를 만들 건데
stage라고 부를 거예요. '필드 찾기'에서
status나 single select를 입력하고
single select를 선택한 다음
이름을 stage로 지정하고
몇 가지 옵션을 추가하려고 합니다
첫 번째 옵션은 초록색으로 할게요
색상은 크게 중요하지 않지만
어떤 색을 선택하든 상관없어요
초록색으로 하고
transcript complete라고 이름 붙이겠습니다
다른 옵션을 추가하고 보라색으로 설정해서
vectorized라고 부를 거예요
이렇게 하면 어떤 transcript가 완료되었고
어떤 것이
벡터화되었는지 알 수 있죠
다 되었으면 create field를 누르고
이제 테이블을
좀 더 깔끔하게 정리해볼게요
이름을
YouTube videos로 지정하고 첫 번째 뷰는
all transcripts로 이름을 바꾸겠습니다
그리고 이제
화면 왼쪽 하단에서
form view를 선택하고
create a form View를 클릭합니다
이름을 new
YouTube transcript로 지정하고
새로운 뷰를 만들어보죠
video URL을 제외한 모든 것을 삭제할 건데
각 필드를 클릭하고
각 필드의 작은 i 아이콘을 클릭해서
transcript를 제거할 수 있어요
이게 폼에서
입력해야 할 유일한 항목이기 때문입니다
이렇게 하면 작동하는데 필요한 모든 것이 준비되었습니다.
이제 폼이 생성되었고, 동영상 URL을 입력하고 싶을 때마다
폼에 URL을 입력하려면
여기 있는 '폼 열기' 버튼을
항상 클릭해야 합니다.
자, 이제 다음 단계로 넘어갈 준비가 되었습니다.
Airtable에서 자동화를 만들어보겠습니다.
이를 통해 우리가 할 수 있는 것은
새로운 비디오 URL이 제출되면 n8n으로 웹훅 데이터를 보낼 수 있습니다.
Airtable의 자동화에서
트리거를 추가하고 싶은데
그전에 먼저 테스트 필드를
빠르게 추가해보겠습니다.
현재 세 개가 있는데
이것들을 모두 삭제하고
새로운 필드를 추가하겠습니다.
이름을
'testing'이라고 지정한 다음 자동화를 만들 수 있습니다.
이 필드는
나중에 사용할 것이기 때문에 필요합니다.
자동화를 선택하고
트리거 추가를 클릭한 다음
'폼이 제출되었을 때'를 선택합니다.
폼이 제출되면 YouTube 비디오 테이블을 선택하고
방금 만든 새로운 YouTube
트랜스크립트 폼을 선택합니다.
여기서 제안된 레코드 사용을 클릭하면
테스트가 성공적으로
완료되었다고 표시될 것입니다.
방금 생성한 테스트 필드가 있다면
테스트 행이 정상적으로 생성됩니다.
다음으로 우리가 해야 할 것은
'고급 로직 또는 액션 추가'를 클릭하고
'레코드 업데이트'를 선택합니다.
테이블 선택에서 YouTube 비디오 테이블을 선택하고
레코드 ID의 경우
이 파란색 플러스 버튼을 클릭해서
Airtable 레코드 ID를 선택합니다.
그다음 필드를 선택하고
비디오 URL로 설정한 다음 파란색 플러스 버튼을
다시 클릭해서 비디오 URL을 추가합니다.
이제 미리보기를 생성하면
테스트가 성공적으로 완료될 것입니다.
마지막으로 추가해야 할 것은 스크립트 실행입니다.
이를 통해 웹훅에 연결할 수 있습니다.
보통 에이전트를 만들 때
우리는 모든 리소스를
n8n 코스의 강의실에
보관합니다. 예를 들어
이런 에이전트를 만들 때
사용할 수 있는 훌륭한 리소스들이
여기에 있습니다.
이것을 복사하겠습니다만
설명란에도 남겨두겠습니다.
여기에 붙여넣은 후에
입력 변수를 추가해야 합니다.
첫 번째로 추가할 것은
record ID이고 제가 작성한 것과 정확히 같은 철자여야 합니다.
아래로 스크롤해서
테이블 레코드 ID를 선택하고
그다음 video URL을 선택합니다.
이렇게 하면 됩니다.
이제 Airtable 쪽에서는
모든 설정이 완료되었습니다.
나중에 웹훅 URL을 입력해야
하지만 지금은 여기까지 진행하겠습니다.
이제 자동화 부분으로 가서
새로운 워크플로우를 만들어보겠습니다.
커뮤니티 멤버인 경우
이런 것들을 할 수 있는데
제가 정말 좋아하는 기능입니다.
블루프린트를 다운로드하고
여기서 파일에서 가져오기를 선택해 블루프린트를 업로드하면
모든 설정이 자동으로 완료됩니다.
이제 준비가 거의 다 됐네요
하지만 이제 직접 만드는 방법을 보여드리겠습니다
실제로 활용할 수 있는 기술을 익히실 수 있도록요
제가 할 수 있는 것은
이 워크플로우의 이름을 변경하는 것입니다
'URL to transcript'와 같은 이름으로요
이 자동화의 첫 단계는
웹훅이 될 거예요. 검색해볼게요
웹훅 노드를 찾아보면
워크플로우를 시작하게 될 거예요. HTTP 메소드는
POST를 선택하시면 되고 나머지는
그대로 두시면 됩니다. 주의할 점은
웹훅 URL을 공개하지 마세요
다른 사람들이 접근할 수 있게 되니까요
웹훅을 설정한 후에
실제로 테스트 URL을 가져올 건데요
실제 운영할 때는 전환하셔야 하지만
테스트용으로 사용할 거예요
클릭해서 복사하시면 되고
자동화 설정으로 돌아가서
스크립트 실행과 Airtable 아래에서 코드를 수정하고
n8n 웹훅이라고 쓰여진 부분에
방금 복사한 URL을 붙여넣을 거예요
이제 테스트해볼 수 있지만, 작동하는 걸 알고 있으니
웹훅 다음에 추가할 내용을 만들어보겠습니다
웹훅 필드 다음에 추가하고 싶은 것은
Set 필드입니다
URL을 설정할 수 있도록요
Set 필드를 여기 가져와서
정리를 위해 이름을 바꿔볼게요
'URL'이라고 하겠습니다
여기에 몇 가지 필드를 추가하려고 합니다
URL 필드를 추가하고
record ID 필드도 추가할 거예요
나중에 레코드 ID를 업데이트할 수 있도록
필요할 때 사용하기 위해서죠
이제 데이터를 보내야 합니다
이 값들을 매핑하기 위해서
할 수 있는 것은
테스트 워크플로우를 실행하는 거예요
이제 테스트를 기다리고 있습니다
자동화 편집을 완료하고
켜기를 누르면 이제
폼으로 가서
실제로 어떻게 작동하는지 테스트해볼 수 있어요
유튜브로 가보겠습니다
이 영상의 자막을 가져오고 싶다고 해보죠
지금은 테스트 단계이기 때문에
실제로 자막을 가져오지는 않을 거예요
테스트 목적으로만 사용할 겁니다
URL을 복사해서
폼에 붙여넣기 할 건데요
이벤트를 기다리고 있는지 확인하고
테스트 워크플로우를 클릭하세요
위에서 저장도 눌러주시고
제출을 누르면 이 테스트 데이터가
웹훅 요청으로 전송될 거예요
데이터가 전송되었다는 건
우리 폼이 자동화에
제대로 연결되었다는 의미입니다
이제 성공했으니, 할 수 있는 것은
여기를 클릭해서
웹훅에서 전송되는 모든 데이터를
매핑할 수 있어요. record ID와
video URL을 매핑할 수 있죠
video URL을 여기 video URL 아래로 드래그하고
record ID는 record ID 아래로 드래그하면
두 필드가 설정됐습니다. 다음으로
우리가 해야 할 것은
Apify 액터를 설정하는 거예요
설명란에 있는 YouTube 스크래퍼를
무료로 사용해보기를 클릭하시면
콘솔로 이동해서 설정하실 수 있습니다
이제 주요 설정을 시작할 건데요
먼저 Apify 계정을 생성해야 합니다
카드를 등록하셔야 요금이 청구될 수 있고
영상 1,000개당 50센트의 요금이 부과되는 가격 모델을 확인하시고
그 다음 설정으로 이동해서
API와 통합 섹션으로 이동하세요
여기서 개인 API 토큰에
접근할 수 있습니다
새로운 토큰을 생성할 수 있는데
원하시면 설명을 추가할 수 있습니다. 저는
테스트 영상용이라는 걸 기억하기 위해 'test video delete'라고 이름을 지정하겠습니다
나중에 삭제할 것이기 때문이죠
생성 버튼을 누르면 새로운
키가 생성됩니다. 이 키는
나중을 위해 저장해두세요
자동화 과정에서 다시 사용할 겁니다
URL 다음에 있는 플러스 버튼을 클릭하고
HTTP 요청을 추가하세요. 제가 curl
또는 cURL 임포트를 제공할 건데
이런 자료들은 항상
커뮤니티에서 찾을 수 있습니다
좋은 리소스들이 있죠
이 내용은 설명란에도 있을 거예요
이제 저는 'Import cURL'이라고 써있는 곳을
클릭하고 내용을 붙여넣은 다음
임포트를 누르겠습니다
여기서 해야 할 일은 API 키를 붙여넣고
JSON을 사용하도록 변경한 다음
설명란에 있는 추가 필드를 넣는 것입니다
먼저 API 키부터 시작하겠습니다
설명란에 모든 내용이 있을 거예요
Apify 계정으로 가서 방금 만든
API 키를 가져오겠습니다
자동화로 돌아와서
여기에 붙여넣을 건데
이 키는 아무에게도 보여주면 안 됩니다
이 영상이 끝나면 삭제할 거예요
그리고 이 body content type은
JSON을 사용하도록 변경해야 하고
설명란에 있는 JSON을 붙여넣어야 합니다
커뮤니티에서 가져온
JSON을 여기에 붙여넣을 건데
이렇게 하면 모든 설정이 완료됩니다
이 필드는 동적 필드여야 합니다
최소한 동적 필드로 만들어야 하죠
그래서 이 부분을
고정값에서 표현식으로 변경해주세요
이제 이 부분이 들어오는 URL에 따라 동적으로 변하고
모든 설정이 완료되었습니다
이제 모든 것이 준비되었으니
테스트를 해보고 싶은데요
먼저 테스트 데이터로 돌아가서
URL 단계가 제대로 작동하는지
출력이 나오는지 확인해보겠습니다
테스트 단계 버튼을 누르면
테스트가 실행됩니다
출력이 나왔네요. 이제 HTTP 요청으로 돌아가서
이걸 열어보고
결과 부분에 YouTube 영상 URL이
초록색으로 표시되어 있는지 확인하고
테스트 단계 버튼을 누르겠습니다
제가 설정한 대로 따라하셨다면
이 과정이 잘 작동할 것이고
보시다시피 영상의
설명, 채널 정보
말 그대로 모든 정보를 가져옵니다
썸네일까지 모든 것을 가져오는데
정말 좋죠. 이제
다음으로 자막을 가져오기 위한
요청을 설정해야 합니다. HTTP 요청
다음에 또 다른 HTTP 요청을
추가할 수 있습니다. 이것은 단순한
GET 요청이 될 것입니다
URL 칸에 GET 요청을 입력할 건데
특정 데이터 포인트를 가져와야 합니다
필요한 특정 데이터는
맨 아래에 있는데
모든 Adaptive 형식 아래에 있으며
caption tracks base URL을 찾으셔야 합니다
이것을 URL 칸으로 드래그 앤 드롭하시면 됩니다
이제 이 단계를 테스트해보면
알아채시겠지만
이상한 형식으로 된 전체 자막이
추출됩니다
코드 노드로 이것을 포맷팅해 보겠습니다
위로 올라가서
코드를 입력하고 이 코드 노드를 선택한 다음
설명에서 다시 한 번
구글 문서에 모든
정보를 무료로 제공할 예정이지만
지금은 제가 모든 좋은 자료를
보관하는 커뮤니티로 돌아가서
코드를 복사해서
이 코드 노드에 붙여넣겠습니다
HTTP 요청에 연결한 후
여기 있는 내용을 모두 지우고
새로운 내용을 붙여넣을 건데
이렇게 하면
이 복잡한 형태에서
하나의 통합된 자막으로 포맷팅됩니다
이 코드를 실행하면 - 빠르게 테스트해보겠습니다 -
보시다시피 완벽하게 정리가 되고
이제 실제로
데이터베이스에 모든 것을 추가할 수 있습니다
이제 우리는
데이터베이스에
자막이 있으니
다음 단계는 모든 것을 병합하는 것입니다
merge 도구를 선택하고
입력 수를 3개로 설정합니다
이것을 위로 끌어다 놓고
첫 번째로 병합하고 싶은 것은
URL 필드이므로
URL 필드를 입력 1로 끌어다 놓습니다
다음은 이 HTTP 요청에서
비디오 상세 정보 필드를 2번으로
끌어다 놓고
마지막으로 이 코드 노드에서
입력 3으로 모두 끌어다 놓습니다
이제 테스트 실행을 해보면
보시다시피
세 가지 항목이 표시되므로
이것을 하나로 통합해야 합니다
Aggregate를 입력하고
이것을 결합하기 위해
모든 항목 데이터를 단일 리스트로 선택하면
단계를 테스트할 수 있고
그러면 필요한 모든 데이터의
완전한 하나의 리스트가 생성됩니다
마지막으로 Airtable에
이것을 추가하면 됩니다
이것들이 유틸리티 노드인데
유틸리티 노드를 모르신다면
배우셔야 합니다. 다시 말씀드리지만
코스에서 다루고 있습니다
모든 노드 유형을 다루면서
n8n을 완벽하게 이해할 수 있도록 했습니다
이제 데이터베이스에
추가해보겠습니다
Airtable을 입력하고 레코드를 업데이트하려고 합니다
이렇게 하면 자막이
Airtable 레코드에 추가됩니다
새로운 Airtable 자격 증명을 만들어보죠
Airtable에 로그인하셨다면
이 URL로 이동하시면 됩니다: airtable.com
tokens/new에서 토큰을 생성하실 수 있습니다
이름을 지정할 수 있는데, 저는 YT라고 하겠습니다
transcript agent라고 하겠습니다. 철자가 틀려도 상관없죠
나중에 삭제할 수 있으니까요
이제 스코프를 추가할 건데
추가해야 할 스코프는
data.records read와 data.records write입니다
그리고 schema.basis read도 추가할 거예요
베이스를 추가하고 스크롤을 내려서
이 영상을 위해 만든 데이터베이스로
이동한 다음
토큰 생성을 선택하면 됩니다
여기서 새로운 API 키가 생성되는데
이건 다른 사람에게 보여주면 안 됩니다
이걸 복사하고 완료를 누른 다음
트랜스크립트 워크플로우 URL로 돌아가서
액세스 토큰을 붙여넣고 저장합니다
이제 우리가 만든 데이터베이스와 연결되었습니다
n8n에서 직접 편집할 수 있죠
이제 여기서 나가고
다음으로 할 일은
방금 만든 액세스 토큰을 선택하고
레코드를 업데이트하는 것입니다
URL에서 가져온 페이지의 레코드 ID를
드래그해서 가져왔습니다
레코드 ID를 가져와서
병합 필드로 가져왔죠
이제 레코드 ID를 업데이트할 수 있습니다
먼저 베이스와 테이블을 선택해야 합니다
테이블이 바로 나타나지 않으면
필드를 변경하면 나타날 겁니다
우리가 해야 할 일은
ID라고 되어 있는 곳에
데이터의 레코드 ID를 드래그해야 합니다
비디오 이름에는 유튜브 영상의 제목을 드래그하고
설명란에는 설명을, 트랜스크립트에는
당연히 트랜스크립트를 드래그합니다
트랜스크립트는
맨 아래에 있는
cleaned text 아래에 있습니다
비디오 URL은 이미 들어가 있고
그걸 선택 해제하고
단계에서는 transcript complete로 설정합니다
이제 이 단계를 테스트하면
데이터베이스의 마지막 필드를
모든 정보와 함께 업데이트해야 합니다
에어테이블을 새로고침해서
제대로 작동했는지 확인해보겠습니다
잘 됐네요
이제 트랜스크립트가 들어오고
설명과 제목, 그리고 현재 단계까지
모두 표시되고 있습니다
이제 자동화가 완성되었고
테스트 필드를 모두 삭제하고
처음부터 끝까지 테스트해보겠습니다
AI 에이전트를 이용한
연구 자동화 영상의
URL을
여기서 가져와서
폼을 선택하고 열어서
비디오 URL을 붙여넣겠습니다
이벤트가 수신 대기 중인 동안
제출을 누르면
에어테이블 데이터베이스에
새로운 유튜브 URL이 추가되고
이제 이 자동화가
실행되면서 필요한 모든 데이터를 가져오고
트랜스크립트와 다른 정보들을
에어테이블에 추가할 것입니다
에어테이블로 돌아가보면
모든 내용이 트랜스크립트와 함께 들어가 있는 것을 볼 수 있습니다
다음 단계로 진행하고 싶다면
이제 트랜스크립트가 여기 있으니
제가 모든 것을 보여드렸고
필요한 모든 리소스를 제공했지만
이것을 벡터 데이터베이스에
업데이트하고 트랜스크립트와 대화하고 싶다면
커뮤니티에 가입하시는 것을 추천드립니다
나머지 빌드가 있고
쉽게 복사하고 붙여넣을 수 있는 시스템도 있습니다
유튜브 트랜스크립트 에이전트에는
영상에서 사용된 모든 리소스와
더 많은 리소스가 있습니다
오늘 제가 보여드린 것보다 훨씬 더 많은 자료가 있죠
이제 이것을 설정했으니
다음 두 튜토리얼에서 나머지를 볼 수 있습니다
커뮤니티에서 뵙기를 희망합니다
이제 설정이 완료되었고
커뮤니티에서 만나뵙기를 바랍니다만
이 유튜브 비디오 URL 스크래핑 방법에 대한
영상이 도움이 되셨기를 바랍니다
이것은 제가 매우 유용하다고 생각했던
기능인데요
깊이 있는 연구를 하고 싶을 때
트랜스크립트와 대화하고 싶을 때
또는 콘텐츠를 재활용하여
유튜브 영상을 위한 더 많은 콘텐츠를
만들고 싶을 때
아주 좋은 자동화였습니다
이 영상이 마음에 드셨다면
댓글로 의견을 남겨주시고
좋아요와 구독 부탁드립니다
정말 감사하겠습니다
AI foundations의 멤버가 되고 싶으시다면
설명란이나 상단 고정 댓글에
링크를 남겨두었습니다
기초부터 시작해서
AI 에이전트 구축까지 모든 것을 다룹니다
우리 커뮤니티에서는 AI를 매우 쉽게
이해할 수 있도록 설명합니다
이 영상이 도움되셨길 바라며
다음 영상에서 뵙겠습니다