구글, 새로운 Gemini 파일 검색 도구로 RAG를 완전히 바꾸다

채널 아이콘
AI with Surya 구독자 3,890명

요약

이 영상은 Google이 Gemini API에 도입한 파일 검색 도구를 살펴보며, RAG(Retrieval Augmented Generation) 파이프라인을 단일 API 호출로 간소화하는 과정을 설명합니다. 시맨틱 청킹, 임베딩, 벡터 인덱싱부터 실시간 검색과 인용(citation)까지 모든 단계가 자동화되어 개발 속도와 비용 장벽을 크게 낮춥니다. 간단한 코드 예시를 통해 누구나 몇 줄만으로 기업 전용 문서나 파일을 기반으로 한 AI를 구축할 수 있다는 점이 핵심 포인트입니다.

주요 키워드

Gemini API 파일 검색 도구 RAG 시맨틱 청킹 임베딩 벡터 인덱싱 시맨틱 검색 오프라인 인덱싱 실시간 쿼리 LLM 자동화

하이라이트

  • 🔑 파일 검색 도구 하나로 시맨틱 청킹, 임베딩, 벡터 인덱싱, 계층화된 검색까지 완전 자동화된 RAG 파이프라인을 구현합니다.
  • 🌟 다양한 파일 형식을 즉시 지원하며, 데이터 저장과 쿼리 시 임베딩 생성이 무료로 제공되어 비용 부담을 획기적으로 낮춥니다.
  • 🚀 코드 3단계만으로 오프라인 인덱스 생성부터 실시간 질의 처리까지 가능해져 복잡한 인프라 작업이 ‘몇 줄 코드’로 대체됩니다.
  • ⚡️ 키워드 매칭이 아닌 시맨틱 검색 방식으로 문맥을 이해하여 더 정확한 결과를 제공하며, 나만의 문서 기반 지식을 AI가 활용할 수 있습니다.
  • 📌 업로드 즉시 자동 생성되는 인용(citation) 기능을 통해 투명하고 검증 가능한 답변을 받습니다.
  • 🌐 기존 LLM이 못 보는 내 기업 데이터, 프로젝트 노트 등을 파일 검색 도구가 완벽히 활용해 AI를 ‘내 파일을 아는’ 지능으로 업그레이드합니다.
  • 🔍 오프라인 인덱싱 단계에서는 청킹→임베딩→데이터베이스 저장을, 실시간 쿼리 단계에서는 최적화된 검색 쿼리→임베딩→답변 생성의 순서로 처리합니다.
  • 🏗️ 속도, 비용, 단순성이라는 세 가지 큰 혁신을 통해 이제 모든 개발자가 손쉽게 ‘업무용 AI’를 구축할 수 있는 시대가 열렸습니다.

용어 설명

RAG

Retrieval Augmented Generation(검색 증강 생성)으로, AI가 외부 지식을 검색해 사실 기반 답변을 생성하는 방식

시맨틱 청킹

문서를 의미 단위(단락)로 나눠 문맥을 보존하며 임베딩 준비 과정을 최적화하는 기법

임베딩

텍스트를 수치 벡터로 변환해 기계가 의미를 이해하고 비교할 수 있도록 하는 표현 방법

벡터 인덱싱

임베딩된 벡터를 효율적으로 검색할 수 있게 구조화(인덱싱)하여 유사도 검색을 지원하는 데이터 저장 방식

시맨틱 검색

단순 키워드 매칭이 아니라 텍스트의 의미 관계를 기반으로 유사 문장을 찾아내는 검색 기법

[00:00:00] 소개: RAG를 바꾸는 Gemini 파일 검색

Google이 Gemini API에 새로 도입한 파일 검색 도구가 RAG 파이프라인을 어떻게 완전히 자동화·간소화하는지 개요를 설명합니다. 기존 복잡한 절차가 단일 API 호출로 통합된 혁신 포인트를 제시합니다.

구글이 Gemini API의 파일 검색 도구로 RAG 기술을 혁신했다고 소개하며, 이 도구가 규모와 가격 측면에서 파괴적인 수준의 관리형 RAG를 제공한다고 설명합니다.
[00:00:16] 데모: 파일 업로드와 자동 파이프라인

Hyundai i10 차량 매뉴얼을 업로드하면서 시맨틱 청킹, 문서 임베딩, 벡터 인덱싱, 다단계 검색까지 자동으로 처리되는 과정을 단계별로 시연합니다.

실제 앱 시연을 통해 현대 i10 자동차 매뉴얼을 업로드하고, 의미적 청킹, 문서 임베딩, 벡터 인덱싱, 계층화 검색 등의 과정이 자동화되는 것을 보여줍니다.
[00:01:02] RAG 개념과 전통적 도전 과제

대형 언어 모델(LLM)이 ‘내 문서’를 모르는 근본 한계를 짚고, 이를 해결하기 위한 전통적 RAG 구축 과정의 복잡성과 높은 비용을 설명합니다.

문서에서 정보를 검색하고 인용 소스를 제공하는 RAG 기능을 시연하며, 이 모든 것이 수동 작업 없이 Gemini API 내에서 자동으로 처리된다는 점을 강조합니다.
대형 언어 모델의 한계점을 설명하며, 이들이 일반적인 지식은 방대하지만 개인 문서나 회사의 사적 데이터에 대해서는 전혀 모른다는 근본적 문제점을 지적합니다.
[00:02:11] 파일 검색 도구의 내부 구조

오프라인 인덱싱 단계(청킹→임베딩→DB 저장)와 실시간 쿼리 단계(질의 생성→쿼리 임베딩→검색→최종 생성)의 전체 워크플로우를 다이어그램과 함께 자세히 풀이합니다.

개발자들이 AI가 특정 개인 정보를 이해하도록 하는 것이 큰 도전이었으며, 이를 해결하는 주요 솔루션인 RAG 시스템 구축이 복잡하고 비용이 많이 드는 엔지니어링 악몽이었다고 설명합니다.
Gemini API의 파일 검색 도구가 복잡한 RAG 엔지니어링을 간단한 API 호출로 바꿔주는 혁신적 기술을 소개합니다.
RAG의 핵심 개념과 기존 방식의 복잡성을 설명하며, 검색-증강-생성의 3단계 프로세스를 AI에게 오픈북 시험을 치르게 하는 것에 비유합니다.
기존 RAG 구축의 어려움을 상세히 설명합니다. 소싱, 청킹, 임베딩 생성, 벡터 데이터베이스 관리, 검색 시스템 구축 등의 복잡한 엔지니어링 작업들이 개발자들에게 큰 장벽이 되어왔습니다.
파일 검색이 RAG를 대체하는 것이 아니라 완전 관리형 RAG 시스템으로서 모든 복잡함을 숨겨주는 차별점을 강조합니다.
파일 검색의 작동 원리를 두 단계로 설명합니다. 오프라인 인덱싱 단계에서는 시맨틱 검색을 통해 파일이 자동으로 청킹되고 임베딩으로 변환되어 전문 데이터베이스에 저장됩니다.
실시간 쿼리 프로세스에서 Gemini가 외부 지식의 필요성을 판단하고, 필요시 최적화된 검색 쿼리를 생성하여 임베딩으로 변환된 후 가장 관련성 높은 텍스트를 찾는 과정을 설명합니다.
Gemini API의 File Search가 어떻게 작동하는지 설명합니다. 시스템이 컨텍스트를 가져와 Gemini 모델에 전달하면, 모델이 정확하고 근거 있는 답변을 생성합니다.
[00:05:56] 간단한 코드로 구현하기

파일 스토어 생성, 파일 업로드(인덱싱 트리거), 실시간 쿼리 호출의 3단계 코드 예시를 통해 어떻게 복잡한 인프라가 ‘몇 줄 코드’로 대체되는지 보여줍니다.

File Search 구현의 간단함을 강조하며, 단 3단계로 완성할 수 있다고 설명합니다. 파일 스토어 생성, 파일 업로드, 쿼리 실행만으로 복잡한 RAG 시스템을 구축할 수 있습니다.
File Search의 추가 기능들을 소개합니다. 자동 인용 제공 기능과 다양한 파일 형식 지원을 통해 완전한 RAG 솔루션을 제공합니다.
[00:07:01] 세 가지 주요 혁신 포인트

개발 속도 향상, 비용 장벽 제거(무료 저장·쿼리 임베딩), 여전히 제공되는 다양한 파일 형식 지원과 자동 인용 기능이라는 핵심 이점을 정리합니다.

File Search가 가져오는 세 가지 주요 혁신을 설명합니다. 빠른 개발 속도, 혁신적인 비용 구조(데이터 저장 및 임베딩 무료), 그리고 단순함과 강력함의 양립을 강조합니다.
Google이 AI와 개인 데이터 통합의 복잡성 장벽을 무너뜨렸다고 결론지으며, 시청자들에게 이 기술로 무엇을 구축할지 묻고 채널 구독을 요청합니다.
[00:08:18] 결론 및 다음 단계

Google이 AI 개발의 진입 장벽을 허물었다는 메시지와 함께, 이제 ‘내 데이터 기반 AI’를 무엇으로 만들지 시청자에게 질문하며 댓글 참여를 유도합니다.

타임라인 정보가 없습니다.

구글이 방금 RAG를 영원히 바꿔놓았을 수도 있습니다
최신 Gemini API 업데이트로 말이죠
그들이 Gemini 파일 검색 도구를 출시했는데
이건 정말 혁신적입니다
규모와 가격 측면에서 효과적으로 관리되는 RAG를
완전히 파괴적인 수준으로 제공합니다
자, 저는 최신 Gemini API의
파일 검색 도구를 사용해서 이 앱을 만들었습니다
여러분을 과정으로 안내하면서
실제로 어떤 일이 일어나는지 설명하고 싶습니다
여기서 API 키가 필요한데 이미 선택해 놨습니다
제가 직접 파일 세트를 업로드하는 옵션이 있지만
현대 i10 자동차 매뉴얼을 그냥 사용하겠습니다
업로드하고 채팅하기를 클릭할게요
제가 그렇게 하는 순간, 첫 번째 단계는
의미적 청킹입니다
문서를 의미 있는 단락으로 나누어
맥락을 이해하는 것입니다
우리를 위해 그 작업을 하고 있습니다
두 번째는 문서 임베딩으로
텍스트를 숫자 벡터로 변환하는 것입니다
그 다음 세 번째는 벡터 인덱싱입니다
이는 텍스트 벡터를 검색 가능한 맵으로 구성하여
검색할 수 있게 하는 것입니다
그 다음에는 계층화된 검색을 수행하는데
이는 인덱싱이 완료된 후의 다음 단계입니다
여러분이 보신 것처럼
완전히 자동화된 여러 단계들이 있었고
저는 실제로 RAG 시스템을 설정하지 않았습니다
이것은 Gemini API의 새로운 파일 저장 도구가
우리를 위해 처리해주고 있는 것입니다
이제 저는 질문을 할 수 있습니다
질문도 제안해주고 있네요. 정말 멋집니다
일반적인 오류 해결에 대한 정보를
어디서 찾을 수 있나요?
이제 수행하게 될 작업은
문서를 살펴보고
응답을 제공하는 것입니다
하지만 제가 집중하고 싶은 부분은
소스입니다. 맞죠?
이것이 인용 부분인데
매우 전형적인 RAG처럼 동작하고 있습니다
하지만 아름다운 점은
제가 RAG 시스템을 구축하지 않았다는 것입니다
이 모든 것이 Gemini API 내에 포함되어 있습니다
만약 제가 종단간 RAG 프로세스를 사용했다면
해야 했을 수많은 수동 작업들이
이제 API 자체에서
완전히 처리됩니다
그리고 가장 좋은 점은 이것이 단순히
API 호출이라는 것입니다. 맞죠?
다시 돌아가서 이것이
대형 언어 모델과 어떻게 다른지
그리고 진전이 무엇인지 논의해봅시다
진행하면서 코드도 살펴볼 것입니다
아시다시피 Gemini 같은
대형 언어 모델들은 정말 놀랍습니다
시를 쓰고, 코드를 디버깅하고
복잡한 주제들을 몇 초 만에 설명할 수 있습니다
세상에 대한 방대한 지식을 가지고 있지만
하나의 근본적인 사각지대가 있습니다
그들은 여러분의 세계에 대해서는
전혀 알지 못합니다
여러분의 문서, 회사의 개인 데이터
프로젝트 노트들 말이죠
이 모든 것이 그들에게는 보이지 않습니다
개발자들에게 있어서 AI가
이런 특정한 개인 정보를 이해하도록 하는 것은
엄청난 도전이었습니다
이를 해결하기 위해 일반적으로 사용되는
주요 솔루션을 검색 증강 생성
또는 RAG라고 합니다
하지만 RAG 시스템을 직접 구축하는 것은
복잡하고 비용이 많이 드는
다단계 엔지니어링 악몽이었습니다. 지금까지는요
그 모든 복잡한 엔지니어링 작업을
간단하고 우아한 API 호출로 바꿔버립니다.
그래서 이번 영상에서는
이것이 무엇인지, 어떻게 작동하는지,
그리고 왜 이것이 우리가
AI를 활용하는 방식을 영원히 바꿀 것인지에 대해 자세히 알아보겠습니다.
파일 검색이 얼마나 대단한지 제대로 이해하려면
기존의 방식, 즉 어려운 방식을
먼저 이해해야 합니다. RAG의 핵심 아이디어는 간단합니다.
대형 언어 모델을 외부 지식과 연결하여
실제 사실에 기반한 응답을 생성하는 것입니다.
AI에게 암기로 답하게 하는 대신
오픈북 시험을 치르게 하는 것과 같다고 생각하면 됩니다.
오픈북 시험을 치르게 하는 것과 같다고 생각하면 됩니다.
이 과정은 세 단계로 이루어집니다. 검색, 증강, 생성입니다.
꽤 쉬워 보이죠? 전혀 그렇지 않습니다.
이 파이프라인을 처음부터 구축하는 것은
정말 큰 프로젝트입니다.
데이터 소싱과 청킹 작업이 포함되는데,
이는 문서를 완벽한 크기의 덩어리로 나누는 작업입니다.
그 다음엔 임베딩 생성이 있는데,
이는 별도의 모델을 사용해서
그 덩어리들을 수치적 표현으로 변환하는 작업입니다.
그 덩어리들을 수치적 표현으로 변환하는 작업입니다.
그리고 벡터 데이터베이스 관리가 있는데,
이는 전문 데이터베이스를
설정하고 관리하며 비용을 지불하여
이러한 임베딩을 저장하고 검색하는 작업입니다.
그리고 검색 및 랭킹 시스템을 구축해야 합니다.
제가 방금 설명한 각 단계는
엄청난 엔지니어링 골칫거리입니다. 아니,
인프라 골칫거리라고 부르는 게 맞겠네요.
이는 이 강력한 기술을
우리와 같은 많은 개발자들의
손에서 멀어지게 한 커다란 장벽입니다.
바로 이런 이유로 파일 검색 도구가
정말 정말 대단한 것입니다.
어떻게 다른지 이해해볼까요?
RAG를 죽이는 건가요? 그런 종류의 것일까요?
전혀 그렇지 않습니다.
파일 검색 자체가 RAG 시스템입니다.
핵심 차이점은 그 모든 복잡함을 숨긴다는 것입니다.
전체 파이프라인을 자동화하는
완전 관리형 RAG 시스템입니다.
이 다이어그램을 보면
프로세스가 실제로 두 가지 주요 단계로 나뉩니다.
먼저 오프라인 인덱싱 과정이 있습니다.
여기서 무거운 작업들이 일어납니다.
파일 검색은 시맨틱 검색이라는 기술을 사용합니다.
단순히 키워드만 매칭하는 것과 달리
실제로 의미를 이해합니다.
파일을 업로드하면 단순히 저장되는 게 아닙니다.
자동으로 덩어리로 나뉘고
앞서 논의한 임베딩이라고 불리는
수치적 표현으로 변환됩니다.
이는 텍스트의 의미적 의미를 포착합니다.
이러한 임베딩들은 여기서 보는
전문 데이터베이스나
파일 검색 저장소에 저장됩니다.
문서에서 임베딩, 그리고 데이터베이스까지의
전체 흐름이 바로 일회성 인덱싱 단계입니다.
그다음엔 실시간 쿼리 프로세스가 있습니다.
사용자가 질문을 하면 제미나이가
먼저 외부 지식이 도움이 될지 판단합니다.
필요 없다면 그냥 답변을 생성합니다.
하지만 답이 당신의 파일에 있다면
예스 경로를 따릅니다.
모델이 하나 이상의 최적화된 검색 쿼리를 생성합니다.
그 쿼리들도 임베딩으로 변환되어
데이터베이스를 검색하는 데 사용됩니다.
시스템이 가장 관련성 높은 텍스트 덩어리들을 찾고
시스템이 가장 관련성 높은 텍스트 덩어리들을 찾습니다.
컨텍스트를 가져와서 최종 Gemini 모델로 다시 전달합니다.
Gemini 모델은 그 컨텍스트를 활용해서 정확하고 근거가 있는
최종 답변을 생성합니다. 여러분이 보고 계신
이 전체적인 정교한 루프가
백그라운드에서 일어나는 과정이며
Gemini API가 여러분을 위해
완전히 관리해드리는 부분입니다.
좋습니다, 이것이 이론적인 측면입니다.
하지만 정말 게임체인저가 되는 이유는
구현에 사용할 수 있는 코드가 얼마나
간단한지에 있습니다. 정말 3단계만
거치면 됩니다. 첫 번째 단계는
보시다시피 파일 스토어를 생성하는 것입니다.
두 번째 단계는 파일을 해당
파일 스토어에 업로드하고 가져오는 것입니다.
전체 오프라인 인덱싱 과정을 시작하는
단일 API 호출만 하면 됩니다.
정말 멋지죠. 인덱싱 과정이라고 할 때
청킹, 임베딩 등 모든 것이
자동으로 처리된다는 의미입니다.
코드에서도 그것을 확인할 수 있고요.
그리고 세 번째 부분은 쿼리 부분입니다.
마지막 호출이 실시간 쿼리 과정을
실제로 트리거합니다. 툴을 사용해서
모델을 스토어에 연결하기만 하면
답변 생성이 시작됩니다.
정말 간단하죠. 복잡한 엔지니어링 산더미에서
단 몇 줄의 코드로 바뀐 것입니다.
파일을 가져오는 여러 옵션들도
제공되며, 청킹과 설정은
모두 툴이 자동으로 처리해줍니다.
걱정할 필요가 없어요. 이것이
방금 살펴본 다이어그램입니다.
제가 설명한 두 가지 프로세스와
메타데이터가 어떻게 저장되는지에 대한
추가 정보입니다. 이 모든 문서는
제공 가능하며 공유해드릴 수 있습니다.
또 다른 흥미로운 기능들도 있습니다.
기본 제공되는 기능 중 하나는
인용입니다. 업로드하면 일반 RAG처럼
자동으로 인용을 제공할 수 있습니다.
하지만 이것도 자동으로 처리되니
정말 멋집니다. 구현하고 싶다면
이것이 코드 측면입니다.
코드를 보면 구현이 꽤 간단하다고
느끼실 텐데, 그 의미는 엄청납니다.
이것이 가능하게 하는 세 가지 주요
혁신에 대해 얘기해봅시다.
첫 번째는 개발 속도입니다. API를 통해
접근할 수 있다는 것을 이해하시면
개발이 상당히 빨라질 것입니다.
두 번째는 중요한 비용 장벽입니다.
정말 흥미로운 것은 데이터 저장이
완전히 무료라는 점입니다. 쿼리 시
임베딩 생성도 무료입니다.
파일 인덱싱을 위한 소액의 일회성 비용과
최종 답변에 사용된 컨텍스트에 대한
표준 Gemini 요금만 지불하면 됩니다.
세 번째로, 단순함의 힘을 희생하지 않습니다.
기본으로 수십 가지 파일 형식을
지원합니다. 수년간 개인 데이터를
진정으로 이해하는 AI를 구축할 수 있는
능력은 복잡성과 비용의 거대한 벽
뒤에 갇혀 있었습니다. File Search로
Google이 바로 그 벽을 해머로
부숴버린 것입니다. 이제 질문은
'어떻게 구축할 것인가?'가 아닙니다.
여러분을 위한 질문은 이제 근거 있는
AI에 접근할 수 있게 되었으니
무엇을 구축할 것인지입니다.
댓글 섹션에 여러분의 생각을 알려주세요.
여러분이 무엇을 구축할 계획인지
듣고 싶습니다. 그리고 언제나 그렇듯이
이 영상이 도움이 되셨다면 좋아요 버튼을
눌러주시고 다음 영상을 놓치지 않도록
채널 구독해주세요. 시간 내주셔서
감사합니다. 다음 영상에서 뵙겠습니다.