N8N에서 시험한 무료 OCR 툴 TOP4 (하나가 놀라웠다!)

채널 아이콘
Simon Scrapes | AI Automation 구독자 21,500명

요약

이 영상은 문서 데이터 추출의 핵심인 OCR(광학문자판독) 기능을 N8N 플랫폼에서 활용 가능한 무료 도구 네 가지(OCR.space, Mistral OCR, Qwen-2.5-vl, Nanet OCR)를 직접 비교한다. 캡차, 그래프, 표, 손글씨, 신문 차트, 다페이지 연구 논문 등 다양한 실제 문서를 대상으로 성능을 검증하고, 설정 방법과 한계를 상세히 설명한다. 특히 가장 뛰어난 결과를 보여준 도구를 공개하며, 각 모델의 적합한 사용 사례를 제시한다. 마지막으로 OCR과 LLM(대형 언어 모델) 기반 비전 모델 활용 비교를 예고한다.

주요 키워드

OCR(광학문자판독) N8N OCR.space Mistral OCR Qwen-2.5-vl Nanet OCR CAPTCHA Markdown ImageB LLM(대형 언어 모델)

하이라이트

  • 🔑 OCR은 스캔 문서를 기계 판독 가능한 텍스트로 바꿔 검색·색인할 수 있게 해주며, 은행 수표·영수증 관리 등 다양한 비즈니스에 활용된다.
  • 🚀 N8N의 커뮤니티 템플릿 허브에서 OCR 워크플로우 JSON을 다운로드해 한 번에 4개 도구를 비교·테스트할 수 있도록 세팅 과정을 자세히 안내한다.
  • ⚡️ 보안용 CAPTCHA 인식 테스트에서 OCR.space·Mistral·Qwen·Nanet 모두 실패해, 캡차의 자동화 방지 효과를 입증했다.
  • 🌟 Mistral OCR과 Qwen-2.5-vl은 손글씨가 섞인 복잡한 표와 저화질 이미지 처리에서 상대적으로 우수한 성능을 보였다.
  • 📌 그래프·차트 인식은 네 도구 모두 한계를 드러내어, 시각 요소 해석이 필요한 경우 LLM 기반 비전 모델을 대안으로 제안한다.
  • 🚀 다페이지 PDF 리서치 페이퍼 테스트에서 Mistral OCR은 Markdown 구조로 변환해 수식과 문단을 비교적 잘 추출했으나, 수학 기호 일부는 오류가 남았다.
  • 📌 OCR.space와 Nanet OCR은 특정 문서 유형에서 텍스트 추출이 미흡해, 무료 요금제 한계를 고려한 용도 제한이 필요하다.

용어 설명

OCR

광학문자판독(Optical Character Recognition)으로 이미지나 스캔된 문서에서 텍스트를 기계 판독 가능한 데이터로 변환하는 기술

CAPTCHA

사람만 풀 수 있도록 왜곡·혼합된 글자를 사용해 자동화된 봇 접근을 차단하는 보안 수단

Markdown

텍스트 기반 경량 마크업 언어로, 헤더·테이블·강조 등 문서 구조를 간단한 기호로 표현한다

API

애플리케이션 프로그래밍 인터페이스로, 서로 다른 소프트웨어 간 기능 호출 규격을 정의한 것

Binary 파일

이미지나 PDF 데이터를 0과 1로 구성된 이진 형태로 저장한 파일

LLM

대형 언어 모델(Large Language Model)로, 대량의 텍스트를 학습해 자연어 처리와 비전 기능을 수행한다

[00:00:00] OCR 도구 비교 개요

문서 데이터 추출의 중요성을 설명하며, 오늘 비교할 무료 OCR 도구 네 가지와 N8N을 활용한 워크플로우 목적을 간단히 안내한다.

비즈니스에서 문서 데이터 추출의 중요성을 강조하며, 4가지 최고의 무료 OCR 도구를 N8N에서 비교 테스트할 것이라고 소개합니다.
튜토리얼을 따라하기 위해 school.com/scrapes의 커뮤니티 클래스룸에서 OCR 템플릿을 다운로드하고 N8N에 임포트하는 방법을 설명합니다.
[00:00:28] N8N 워크플로우 설정

school.com/scrapes에서 OCR 템플릿을 다운로드 후 JSON 워크플로우를 N8N에 임포트해 노드별 API 호출 구조를 미리 구성하는 방법을 설명한다.

테스트할 문서들을 소개합니다 - 웹사이트 캡처, 그래프와 텍스트가 있는 표, 손글씨 샘플, 읽기 어려운 손글씨 표, 신문의 오래된 주식 차트, 29페이지 분량의 긴 문서 등을 포함합니다.
[00:00:57] 테스트 문서 유형 소개

CAPTCHA, 그래프, 표, 손글씨, 구형 신문 차트, 다페이지 연구 논문 등 총 여섯 가지 실제 비즈니스 문서 유형을 선정한 이유와 기대 성능을 정리한다.

타임라인 정보가 없습니다.

[00:01:27] OCR 개념과 활용 사례

OCR의 정의와 작동 원리를 설명하고, 은행 수표 처리, 영수증·카탈로그·계약서 자동화 등 일상 속 다양한 OCR 적용 사례를 제시한다.

OCR(광학 문자 인식)의 개념을 설명합니다. 종이 문서의 스캔본을 검색 가능한 디지털 텍스트로 변환하는 기술로, 페이지의 모양과 패턴을 분석해 문자를 추론하는 방식으로 작동한다고 설명합니다.
OCR 기술은 은행의 수표 처리, 영수증 관리, 재고 관리 등 일상적인 비즈니스 영역에서 광범위하게 활용되고 있습니다. 연간 200억 장 이상의 수표 처리와 종이 문서의 디지털 변환이 주요 사례입니다.
기존 OCR 기술은 손글씨 인식(정확도 80% 미만)과 텍스트-이미지 혼합 레이아웃 처리에서 한계를 보여왔으나, 최근 2년간 급격한 기술 발전을 이루었습니다.
[00:03:09] 비교 대상 OCR 도구 4종

무료 OCR API를 제공하는 OCR.space, Mistral OCR, Qwen-2.5-vl, Nanet OCR의 특징과 무료 요금제 한도를 소개하고, 선택 기준을 설명한다.

이번 테스트에서는 4가지 최고 평점 무료 OCR 도구들의 성능을 비교 분석합니다. 실제 비즈니스 환경에서 자주 접하는 다양한 문서 형태를 기준으로 평가합니다.
테스트 문서는 다중 페이지 연구논문, 그래프/표/이미지 혼합 콘텐츠, 읽기 어려운 손글씨와 훼손된 텍스트, 수학 공식 포함 문서 등으로 구성되어 최악의 시나리오에서의 성능을 평가합니다.
실제 환경 시뮬레이션을 위해 스캔이 아닌 사진 촬영 방식으로 문서를 캡처하며, 대부분 JPEG 이미지와 PDF 형태로 Google Drive에서 N8N 환경으로 가져와 테스트를 진행합니다.
템플릿을 통해 빠르게 시작할 수 있는 방법을 설명하며, 대부분 API 호출로 구성된 노드들이 최고의 무료 OCR 모델들과 연결된다고 소개합니다.
바이너리 데이터 파일 대신 URL 호스팅이 필요한 경우가 많으며, imageb를 사용해 무료로 이미지를 호스팅하는 방법도 다룰 예정이라고 설명합니다.
테스트할 네 가지 OCR 모델을 소개합니다: OCR.space, Mistral OCR, Qwen 2.5VL, n8n의 OCR로, 이들은 Get Omni.ai 연구를 포함한 다양한 출처에서 높은 평가를 받았습니다.
엄격한 테스트 방법론을 설명하며, GPT-4o 같은 평가 모델을 사용해 JSON 정확도를 측정했다고 언급합니다. 이 튜토리얼에서는 실제 비즈니스 문서로 직접 결과를 확인할 예정입니다.
OCR.space는 월 25,000건의 무료 요청과 검색 가능한 PDF 출력을 제공하며, 오랫동안 운영되어 온 신뢰할 만한 서비스라고 소개합니다.
Mistral OCR은 몇 달 전 출시된 최고 성능의 모델로, 무료 플랜과 1,000페이지당 1달러의 저렴한 가격을 제공하며, 그래프와 차트 읽기에 특히 뛰어난 성능을 보입니다.
Qwen 2.5VL은 직접 호스팅하거나 Open Router 같은 서비스를 통해 사용할 수 있는 모델로 최근 주목받고 있다고 소개합니다.
최근 몇 주 동안 OCR 분야에서 큰 파장을 일으키고 있는 모델에 대해 소개합니다. 이 모델은 수천 개의 문서로 파인튜닝되어 다른 유료 서비스들을 능가하는 성능을 보이며, 오픈 라우터를 통해 무료로 사용하거나 로컬에서 셀프 호스팅할 수 있습니다.
나넷(Nanet)이 허깅페이스에서 최근 7일간 가장 많이 사용된 모델 중 하나로 큰 인기를 끌고 있다고 설명합니다. 나넷은 다양한 소프트웨어와 연결되는 워크플로우를 제공하며, Qwen 2.5VL 위에 구축되어 금융 문서 등에 특화된 파인튜닝 모델입니다.
이제 각 OCR 도구들의 성능을 테스트하기 위해 캡처, 그래프, 손글씨, 신문, 연구 논문 순으로 진행할 예정이라고 안내합니다. 모든 노드를 각 채널에 연결하고 동시에 실행하여 결과를 비교할 수 있게 설정할 것입니다.
[00:07:47] OCR 도구 동시 테스트 방법

N8N에서 각 모델 노드를 연결해 일괄 실행하는 방법과, 바이너리 업로드 vs URL 업로드(이미지 호스팅 ImageB 이용) 방식을 단계별로 안내한다.

OCR 제공업체를 API로 테스트할 때의 세 가지 업로드 방법을 설명합니다. URL 전송, 바이너리 파일 직접 업로드, Base64 인코딩 방식이 있으며, 대부분의 서비스가 URL 업로드를 지원하지만 모든 서비스가 바이너리 파일 업로드를 지원하지는 않는다고 설명합니다.
[00:08:27] CAPTCHA 인식 테스트

웹 보안용 CAPTCHA 이미지를 각 도구에 입력했으나 네 모델 모두 텍스트를 인식하지 못해, 캡차 보안 효과가 그대로 유지됨을 확인한다.

이미지 호스팅과 URL 업로드를 위해 ImageBB 서비스 사용법을 시연합니다. 모든 모델이 URL 업로드를 허용하므로 편의상 모든 이미지를 호스팅하는 것을 고려할 수 있으며, ImageBB에서 수동으로 이미지를 업로드하고 링크를 복사하는 과정을 보여줍니다.
이미지 업로드 과정에서 실제 호스팅 URL을 얻기 위해 우클릭으로 새 탭에서 이미지를 열어야 한다고 설명합니다.
n8n에서 HTTP 요청을 통해 image BB API를 사용하여 URL 엔드포인트에 API 키를 추가하고 바이너리 파일을 업로드하는 과정을 설명합니다.
Qwen 2.5VL과 nanoets 모델에서 Open Router를 통해 이미지 URL을 전달하고 추출된 텍스트를 받아오는 방법을 설명합니다.
Mistral OCR과 OCR.space는 바이너리 파일을 직접 업로드할 수 있으며, OCR.space에서는 JPG 파일 타입과 영어 변환, 검색 가능한 PDF 생성 옵션을 설정할 수 있다고 설명합니다.
Mistral OCR은 3단계 프로세스로 작동하며, 파일 업로드, URL 검색, OCR 수행 순서로 진행된다고 설명하고, 네 가지 도구를 모두 연결하여 캡차 테스트를 수행할 예정이라고 말합니다.
발표자가 캡차 테스트를 시작하며, 이는 대부분의 OCR 모델이 이해하기 쉬워야 하지만 실제로는 봇이 웹사이트 보안을 우회하는 것을 방지하기 위해 설계된 보안 메커니즘이라고 설명합니다.
OCR.space 결과를 분석하는데, 텍스트가 올바른 필드에 나타나지 않고 검색 가능한 PDF로만 출력되었으며, 문자 검색 시 아무 결과도 나오지 않아 OCR이 실패했음을 확인합니다.
Mistral OCR을 테스트한 결과, JSON 형식으로 '# CIZ'라는 마크다운을 출력했지만 실제 캡차 텍스트와는 다른 부정확한 결과를 보여줍니다.
[00:12:13] 표 인식 및 손글씨 테스트

저조도·회전·손글씨가 결합된 표 이미지를 비교, Mistral OCR과 Qwen-2.5-vl이 다음 줄 텍스트까지 잘 추출한 반면, OCR.space·Nanet은 첫 줄만 식별했다.

재실행해도 '# cisiz'로 인식하는 등 여전히 부정확한 결과를 보이며, OCR.space도 여전히 텍스트 인식에 실패합니다.
Quen 모델을 테스트하며 캡차가 컴퓨터의 읽기를 어렵게 하여 봇을 방지하도록 설계되었다고 설명합니다. Quen은 'chis C-H-I-Z'로 인식했으나 여전히 부정확합니다.
텍스트가 양식화되거나 장식적이라고 분석하며, Nanet 테스트에서는 'TZ'라는 완전히 잘못된 결과를 얻어 모든 OCR 도구가 캡차에서 실패했음을 확인합니다.
다음 테스트 샘플을 소개하는데, 이는 인간의 눈으로도 매우 읽기 어려운 문서로 페이지에 있는 표들이 사진 품질이 나쁘고, 조명이 좋지 않으며, 회전되어 있어 더욱 어려운 샘플입니다.
이 어려운 샘플을 각 OCR 도구로 테스트한 결과를 분석하며, OCR.space의 경우 다시 PDF로 출력했지만 검색해도 텍스트가 인식되지 않고 이미지로만 반환되어 JSON 결과에서도 텍스트가 전혀 추출되지 않았음을 확인합니다.
OCR.space 도구 사용 결과를 검토하며, 올바르게 사용하고 있는지 확신이 서지 않는다고 설명합니다.
Mistral OCR 결과를 분석하며, JSON 형식으로 출력된 마크다운에서 상당한 텍스트와 테이블 구조를 정확히 인식했다고 평가합니다.
문서의 첫 번째 텍스트 '어류 및 야생동물 관리 관행'을 정확히 추출했으며, 제5조, 구역, 마당, 높이 요구사항도 올바르게 인식했다고 확인합니다.
Mistral이 텍스트를 마크다운 형식으로 변환하여 H2, H3 제목을 구분했으며, 이를 통해 디지털 문서로 변환 가능하다고 설명합니다.
Qwen OCR 결과를 검토하며, 마크다운 별표를 사용해 굵은 글씨를 인식했지만 Mistral만큼 헤더 구조를 완벽히 이해하지는 못했다고 평가합니다.
[00:15:18] 그래프 차트 인식 한계

차트와 그래프 이미지에서 텍스트만 추출하는 데 성공했지만, 시각 요소 해석은 네 도구 모두 미흡해 LLM 기반 시각 모델 활용을 추천한다.

Nannets는 단어 추출은 했지만 원시 텍스트를 제대로 이해하지 못해 임의의 문자들로 나타났으며, 전반적으로 Mistral과 Qwen이 우수한 성능을 보였다고 결론짓습니다.
다른 예제들을 빠르게 살펴보며 손글씨 테이블 예제를 소개합니다. 이 예제는 다양한 측정값과 시간이 포함된 테이블 구조로 OCR 처리가 어려울 것이라고 예상합니다.
Nanet OCR을 직접 테스트한 결과, 복잡한 표 형태의 데이터에서도 놀라운 추출 성능을 보여주었습니다. 3.75마일, 7.5, 11.25 등의 수치와 읽기 어려운 텍스트까지 정확히 인식했으며, 결과를 원본과 나란히 비교할 수 있어 검증이 용이했습니다.
OCR 모델은 작업의 90%를 자동화하여 수작업을 크게 줄여줍니다. 특정 템플릿에 대해 훈련된 OCR 모델은 해당 구조를 더 잘 이해하게 되며, 컬럼명 등을 파악하여 대량 처리가 가능해집니다.
OCR.space도 이번 테스트에서 처음으로 좋은 성능을 보였지만, 전체 텍스트보다는 첫 번째 라인만 식별하는 한계를 보였습니다. Mistral OCR에 비해서는 여전히 구조적 이해가 부족한 상태입니다.
번역 결과는 마크다운 변환기를 통해 디지털 테이블 형태로 완벽하게 재현할 수 있을 정도로 깔끔하게 정리되었습니다.
그래프가 포함된 이미지 처리 테스트에서는 모든 OCR 모델이 기대 이하의 성능을 보였습니다. 그래프와 이미지 맥락 식별을 자부하는 Mistral조차 아래쪽 기본 텍스트만 추출했을 뿐, 그래프 자체의 정보는 인식하지 못했습니다.
Mistral에는 BBox 주석 포맷이라는 특별한 매개변수가 있어 이미지 내부의 이미지를 식별하는 기능을 제공합니다.
PDF 내부의 이미지를 인식하고 영어로 설명하는 BBox 주석 형식의 한계에 대해 설명합니다. API를 통한 인식이 어려우며, Quen과 Nanets도 마찬가지로 이미지를 인식하지 못하는 문제가 있습니다.
차트와 같은 복잡한 이미지의 경우 OCR 도구보다는 LLM을 직접 사용하는 것이 더 효과적일 수 있다고 제안합니다. 별도 영상에서 OCR과 LLM 비전 모델의 비교를 다룰 예정이라고 안내합니다.
연구 논문 PDF를 다루는 단계로 넘어갑니다. OCR.space는 PDF를 지원하지 않지만 다른 도구들은 지원하며, Mistl만 PDF 문서를 받도록 설정했다고 설명합니다. 매개변수 변경을 통해 쉽게 설정을 조정할 수 있다고 안내합니다.
[00:18:50] 다페이지 논문 PDF 테스트

Mistral OCR의 PDF 전용 워크플로우로 29페이지 분량 리서치 페이퍼를 Markdown 구조로 변환, 수식과 문단은 대부분 추출했으나 기호 인식에는 일부 오류가 남았다.

연구 논문이나 법률 문서는 특수 문자와 수식, 다중 페이지 등 복잡한 요소들을 포함하고 있어 비즈니스에서 중요한 사용 사례라고 설명합니다. Mistl을 통해 이러한 문서들이 어떻게 처리되는지 시연합니다.
OCR 출력 결과를 바이너리 데이터로 로드하고 다양한 인덱스로 분할된 마크다운 텍스트를 확인합니다. 마크다운에서 PDF로 변환하여 더 쉬운 형식으로 텍스트를 볼 수 있다고 설명합니다.
세타 함수 계산 등 복잡한 수학적 내용이 포함된 텍스트를 OCR이 어떻게 처리하는지 보여줍니다. 수학 기호는 인식했지만 완전히 추출하지는 못했으며, 이것이 마크다운 이해 부족인지 OCR의 한계인지 불분명하다고 언급합니다.
[00:20:17] 결론 및 다음 영상 예고

네 가지 무료 OCR 도구의 전반적 성능 비교를 마무리하고, OCR과 LLM 기반 비전 모델의 활용 비교를 다룰 다음 영상을 예고한다.

OCR이 대부분의 정보를 명확하게 인식했지만 수학 기호 처리에 약간의 어려움이 있다고 평가합니다. 그럼에도 수백 개의 마크다운 페이지로 변환되어 검색 가능한 디지털 문서로 활용할 수 있다고 강조합니다.
알다시피, 문서에서 데이터를 추출하는 것은
비즈니스에 매우 중요합니다.
그래서 오늘은 지금 바로
사용할 수 있는 최고의 무료 OCR 도구
4가지를 N8N에서 비교하고
놀라운 결과로 저를 놀라게 한 도구를 공개하겠습니다.
먼저 OCR이 무엇인지
정확히 설명하고, 각 도구를 살펴보며
실제 문서에서 어떻게 작동하는지 보여드리겠습니다.
그래프, 표, 그리고
손글씨 텍스트까지 테스트하고
N8N 내에서 설정하는 방법을
시연해서 오늘부터
이미지와 PDF에서 데이터를 추출할 수 있게 하겠습니다.
첫 번째 OCR 도구부터 시작해보겠습니다.
튜토리얼을 따라하려면
school.com/scrapes로 가서
커뮤니티 클래스룸에 들어가서
리소스 허브를 클릭하고
이 플러그 앤 플레이 템플릿 라이브러리에서
OCR이라고 써진 운영 템플릿으로 갑니다.
워크플로우 JSON을 다운로드하고
N8N 환경을 열어서
새 워크플로우를 생성하고
파일에서 가져오기를 하면 됩니다.
그러면 오늘 사용하고 테스트할
모든 다양한 노드들이 열리고
집에서도 테스트하고 싶다면
훨씬 쉬워집니다.
아니면 직접 만들 수도 있습니다.
오늘 정확히 무엇을 추출할지
빠르게 살펴보겠습니다.
첫 번째는 우리 웹사이트의
캡처본입니다.
그 다음은 데이터 표가 있습니다.
그래프와 텍스트가 모두
여기에 있습니다.
OCR이 추출해야 할
손글씨 샘플이 있습니다.
그리고 표에 있는
상당히 읽기 어려운 데이터 세트도
손글씨로 되어 있습니다.
신문의 오래된
주식 차트도 있습니다.
마지막으로 29페이지의
긴 문서가 있습니다.
공식 등이 포함된
다중 페이지 문서입니다.
어떤 무료 모델이 오늘
이런 작업을 처리할 수 있는지, 각 모델이 얼마나 좋은지
살펴보겠습니다.
충분히 명확하게 설명하지 않았다면,
OCR은 기본적으로 광학 문자
인식입니다.
왼쪽의 이런 문서를
종이 문서의 스캔본을
오른쪽의 이런 것으로
실제로 검색하고 색인할 수 있는
형태로 변환하는 능력입니다.
왼쪽의 모든 것은 물리적 스캔이고
오른쪽은 이것을
검색 가능한 문서로 변환한 OCR 도구의 출력입니다.
저장하고 나중에 검색할 수 있습니다.
예를 들어 이 표가
여기 이 표로 나타나는 것을 볼 수 있습니다.
하지만 이제는 디지털이고
검색이 가능해서
종이 문서보다 비즈니스에 훨씬 유용합니다.
말씀드린 바와 같이
광학 문자 인식은 이미지를 텍스트로 변환하거나
더 정확히는 텍스트의 이미지를
기계가 읽을 수 있는
편집 가능한 텍스트 데이터로 변환합니다.
페이지에서 보는 모양과 패턴을 가져와서
그것이 어떤 글자나 문자인지 추론하는 방식으로 작동합니다.
OCR은 모든 종류의 비즈니스에서 사용됩니다.
모든 종류의 비즈니스에서 사용됩니다. 여러분이
매일 마주치게 될 것들이죠.
예를 들어, 은행들은 OCR을 오랫동안
사용해왔으며, 현재 OCR 기술로
연간 200억 장 이상의 수표를
처리하고 있습니다. 그리고
영수증과 경비 관리 도구들인
Expensify와 QuickBooks 같은
서비스들도 있습니다. 이들은 OCR을 사용해
영수증의 모든 세부사항을 캡처합니다.
또한 제품 카탈로그나 가격 목록,
공급업체 문서를 스캔하여
실시간 재고 관리를 위해
OCR을 활용할 수 있습니다. 그리고
이미 언급했듯이, 종이 계약서나
협정서, 법적 문서, 매뉴얼을
검색 가능한 디지털 파일로
변환하는 데도 사용됩니다. OCR은
정말 강력한 기술입니다. 하지만 기존의
OCR은 손글씨처럼
정확도가 80% 미만으로 떨어지거나
텍스트와 이미지가 혼재된 복잡한 레이아웃에서
어려움을 겪어왔습니다. 예를 들어
차트가 있는 경우, 차트에서는
아무것도 읽어내지 못하고
텍스트만 읽어냅니다.
하지만 이제 OCR 기술은
특히 지난 2년 동안
극적으로 향상되었습니다. 오늘은
4가지 최고 평점을 받은 무료 OCR 도구들을
살펴보고 앞서 본 다양한 형식에서
어떻게 성능을 발휘하는지
보여드리겠습니다. 다양한 형식을
선택한 이유는 실제로 제가
고객들과 작업하면서 그리고
제 비즈니스 경험을 통해
자주 접하게 되는 비즈니스
문서들을 대표하기 때문입니다. 텍스트가
많은 문서들이 혼재되어 있습니다. 긴 연구 논문
같은 경우 여러 페이지로 된
문서가 있습니다. 우리는 단순히
하나의 것만 스캔하는 게 아니라 그래프나
표, 이미지 등 혼합된 콘텐츠를 원합니다.
또한 품질 변화도 고려해야 합니다.
이 모델들이 최상의 경우가 아닌
최악의 경우에서 어떻게 성능을 발휘하는지
이해하고 싶습니다. 왜냐하면 그것이
실제로 중요하기 때문입니다. 정말
읽기 어려운 손글씨나 훼손된 텍스트에서
얼마나 잘 성능을 발휘할 것인가 말이죠.
여기서는 다른 언어로 된 것은
없지만 동일한 원리가 적용됩니다.
마지막 문서에는 수학 공식들이
포함되어 있습니다. 그리고
실제 상황의 캡처를 대표하고 싶습니다.
스캔 대신 사진을 찍어서
업로드하는 경우에도 여전히
좋은 결과와 높은 품질 또는
기대되는 결과를 원합니다.
그래서 제가 이 모든 다양한
테스트 문서들을 PDF와
JPEG로 설정했습니다. 대부분 JPEG, 즉
마지막 연구 논문을 제외하고는
대부분 이미지입니다. 연구 논문은
N8N 환경 내에서 PDF로 되어 있고
Google Drive에서 가져오고 있습니다.
예를 들어, 모든 것을 비활성화하고
첫 번째 캡처만 실행하면 여기로 와서
이것이 N8N 내에 바이너리 파일로
저장되어 있는 것을 볼 수 있고
이를 확인하면 그 캡처를 볼 수 있습니다.
그리고 오른쪽에는
모든 노드들을
미리 구성해 놓았습니다.
만약 여러분이 가져오고 싶다면
템플릿을 가져와서 정말 빠르게 할 수 있습니다.
대부분이 API 호출인 모든 노드들이
이러한 다양한 모델들로 연결되는데
이들은 현재 최고의 모델들로 여겨지고 있습니다.
그리고 일부러 무료 모델들을 선택했으니
정말 쉽게 접근할 수 있습니다.
그리고 이 과정에서 다룰 내용은
종종 바이너리 데이터 파일로
사용할 수 없는 경우가 있어서
어딘가에 URL로 호스팅해야 한다는 점입니다.
일부 모델이나 서비스 제공업체는
파일을 직접 업로드하는 대신 호스팅된 이미지 URL만 허용합니다.
특히 API를 통해서는 더욱 그렇죠.
imageb를 사용해서
무료로 이미지를 호스팅하는 방법도 보여드릴 거예요.
그래서 전체 과정을
표준 n8n 호스트 비용을 제외하고는
무료로 할 수 있습니다. 이제 테스트하기 전에
오늘 테스트할 네 가지 모델을
살펴보고 제가 왜 특별히
이들을 선택했는지 알아보겠습니다.
먼저 OCR.space가 있습니다.
그다음 Mistral OCR이 있습니다.
Qwen 2.5VL과 n8n의 OCR이 있습니다.
이 네 가지 모델은 다양한 출처에서
정말 높은 평가를 받고 있습니다.
Get Omni.ai에서 진행한 이 연구를 포함해서 말이죠.
실제로 여기서 Qwen을 볼 수 있습니다.
2.5VL, Mistral OCR과 함께
다른 LLM들도 포함되어 있습니다.
이들은 이러한 LLM과 OCR 모델을 사용해서
정말 엄격한 접근 방식으로 전체 테스트를 진행했습니다.
문서를 가져와서 OCR 결과를 얻고
GPT-4o 같은 평가 모델과 비교해서
실제로 JSON 정확도를 결정했습니다.
이 튜토리얼에서는 그런 세부사항까지는
다루지 못하겠지만
실제 비즈니스 문서에서
이러한 다양한 모델들의 결과를
직접 확인해보고 어떤 것이
여러분의 사용 사례에 가장 적합한지
결정하는 데 도움을 드릴 것입니다.
하지만 궁극적으로 다양한 이유로
여러분의 사용 사례에 맞는
최적의 모델을 찾기 위해서는
이 모든 모델들을 시도해봐야 할 것입니다.
그럼 OCR.space로 가보면
무료 OCR API 키가 있습니다.
한 달에 최대 25,000건의 요청을
완전히 무료로 할 수 있습니다.
그리고 마지막에는 검색 가능한 PDF까지
출력할 수 있습니다. OCR.space는
꽤 오랫동안 운영되어 왔고
이 분야에서 정말 높은 평가를 받고 있습니다.
하지만 그 이상이 필요하다면
유료 플랜으로 이동해야 합니다.
그다음 Mistral OCR이 있습니다.
Mistral OCR은 몇 달 전에 출시되었고
최고 성능의 OCR 모델 중 하나로
많은 주목을 받고 있습니다.
무료 플랜의 일부로
OCR 모델을 사용해볼 수 있고
예를 들어 1,000페이지를 원한다면
단 1달러만 비용이 듭니다.
정말 매우 저렴합니다.
이것이 그들의 문서 AI와 OCR 모델입니다.
Mistral은 그래프와 차트를 읽는 능력 같은
인상적인 결과들을 보여왔고
이것도 보여드릴 예정입니다.
그다음 Qwen 2.5VL로 넘어가겠습니다.
이것은 직접 호스팅할 수도 있고
Open Router 같은 서비스를 사용할 수도 있습니다.
하지만 이것은 최근에
최근 몇 주 동안 OCR 분야에서
큰 파장을 일으키고 있는 모델로
수천 개의 문서로 파인튜닝되어
다른 많은 유료 서비스들을
능가하는 성능을 보이고 있습니다.
그리고 이것을 오픈 라우터 같은
서비스를 통해 무료로 이용할 수 있고
또는 말씀드린 것처럼 로컬에서 셀프 호스팅해서
무료로 사용할 수도 있습니다.
그리고 마지막으로 나넷은
허깅페이스에서 최근 7일간
가장 많이 사용된 모델 중 하나로
큰 인기를 끌고 있습니다. 정말 최신 모델이죠.
나넷은 다양한 소프트웨어와 연결되는
여러 워크플로우를 제공합니다.
따라서 나넷을 사용하기 위해 N8N이
반드시 필요한 것은 아닙니다.
실제로 나넷 안에서 워크플로우를 만들 수 있지만
해당 API를 사용할 수 있고
가입할 때 200달러 상당의
크레딧을 받아
무료로 시작할 수 있습니다.
그리고 나넷은 실제로 Qwen 2.5VL 위에
구축되었습니다. 특정 유형의 문서들,
예를 들어 금융 문서들에 대해
해당 모델 위에서 특별히 파인튜닝된 모델입니다.
그래서 이것의 성능도 확인해보겠습니다.
자, 이제 각각을 살펴보고
결과를 보여드리겠습니다.
캡처부터 시작해서
그래프, 손글씨, 신문,
주식 그리고 연구 논문 순으로 진행하겠습니다.
이제 할 일은
이 특정 노드들 각각을
여기 있는 각기 다른 채널에 연결하고
이들을 활성화해서 모두 동시에
실행하도록 하여
서로 비교한 결과를 볼 수 있게 하는 것입니다.
다양한 OCR 제공업체들을 테스트할 때,
특히 API를 통해서는
보통 두 가지 또는 세 가지 타입의
업로드 방법이 있습니다. 첫 번째는 어딘가에서 호스팅하고 있는
이미지의 URL을 보내는 것입니다.
하지만 보통 파일들이
데스크톱이나 구글 드라이브에
있는 경우처럼, 파일을
이미지나 PDF 같은 바이너리 파일로
직접 업로드하고 싶을 때가 있습니다.
대부분은 이를 허용하지만
모든 서비스가 그런 것은 아닙니다.
예를 들어, Qwen과 나넷에
오픈 라우터를 통해 업로드할 때
그리고 나넷에 직접 업로드할 때
이미지를 URL로 호스팅해야 합니다.
그리고 세 번째 방법은 실제로
Base64 인코딩인데, 솔직히 말해서
이 튜토리얼에서는 너무 복잡합니다.
그래서 이미지를 호스팅하는 방법과
특정 API에 대한 특정 URL이 필요한 경우
엔드포인트 또는 N8N을 통해
바이너리 파일로 직접 업로드하는 방법을
보여드리는 것에 집중하겠습니다.
이미지를 호스팅하고 URL로 업로드하려면,
그런데 모든 모델들이
URL 업로드를 허용합니다.
그래서 편의상 모든 이미지를
호스팅하고 싶을 수도 있는데,
ImageBB라는 서비스를 사용하겠습니다.
이것은 수동으로도 할 수 있습니다.
이미지를 업로드할 수 있고,
업로드 시작을 클릭하고
OCR 폴더로 가서
아무 이미지나 클릭하면
여기에 직접 업로드됩니다. 자동 삭제 안 함으로 설정하고,
URL을 체크해서 업로드가 되었는지 확인해보겠습니다. 올바르게 업로드되었지만
이것은 필요한 링크가 아니에요. 그리고
이것은 호스팅되는 링크가 아닙니다. 그래서
호스팅되는 링크가 아니에요. 해야 할 일은
우클릭하고 이미지를 새 탭에서 열기입니다.
그러면 호스팅된 URL을 얻을 수 있어요.
다시 n8n으로 돌아가서
이 HTTP 요청에서 효과적으로 수행하고 있는 작업은
방금 화면에서 본 것과 정확히 같은 일이지만
imageㆍ API를 통해 하고 있는 거예요.
여기에 이 URL 엔드포인트가 있습니다.
쿼리 매개변수 안에 API 키를 추가해야 하고
그것을 key라고 부르고 그 안에 키를 추가합니다.
그리고 데이터라고 불리는
n8n 바이너리 파일을 업로드하고 있어요.
보시는 바와 같이요. 그리고 그것이 반환할 것은
효과적으로 우리가 OCR 도구에 전달할 수 있는
URL입니다. 그래서
이것이 우리가 사용할 방법입니다
Qwen 2.5VL과 nanoets 모델에 대해.
그리고 이 HTTP 요청들 안에서 볼 수 있듯이
이 엔드포인트에서 우리는
효과적으로 다시 헤더를 얻었고
여기에 인증이 있고
나중에 보여드릴 헤더가 있습니다.
그리고 우리가 하고 있는 모든 일은
이미지 URL을 전달하는 것이고
그것은 해당 텍스트와 함께 돌아올 것입니다
업로드하고 있는 이미지에서 추출된.
업로드하고 있는 이미지에서 추출된 텍스트요.
Qwen 2.5VL도 마찬가지로
이를 위해 Open Router를 사용하고 있습니다.
그리고 우리가 하고 있는 것은 다시
Open Router로 보내는 것이고
Open Router JSON에서 모델을 지정하고 있습니다.
여기서요. 그리고 우리가 할 일은
이것을 동적으로 만드는 것입니다. 그래서
이미지 URL 안에서 이것을 가져오게 만드는 거예요.
그리고 그것은 맨 아래에 떨어졌네요.
그래서 올려보겠습니다. 그리고
URL을 매개변수로 넣고 있어요.
다시, 그것은 URL로 호스팅하고 있습니다
이전에 바이너리 파일로 가지고 있었던 것을.
하지만 Mistral OCR과
OCR.space는 바이너리 파일을 직접 업로드할 수 있게 해줍니다.
바이너리 파일을 직접요. 그래서
OCR space에서 폼 데이터에
몇 가지 다른 매개변수가 있습니다.
JPG 파일 타입입니다. 영어로 변환하고 싶고
검색 가능한 PDF를 만들고 싶어요
출력 끝에서 볼 수 있을 거예요.
그리고 실제로 입력하고 있다고 지정하고 있습니다
바이너리 타입의 데이터를.
Mistral도 정확히 같지만
Mistral은 요청하는 방식에서 약간 더 복잡합니다.
요청하는 방식에서요. 먼저 파일을
Mistral에 업로드해야 합니다.
그다음 파일의 URL을 검색해야 하고
그다음 업로드된 파일 URL에서
OCR을 수행해야 합니다.
그래서 3단계 프로세스입니다.
하지만 다시 여기서 이 엔드포인트를 사용하고 있는 것을 볼 수 있어요.
우리는 Mistral OCR의 헤더를 전달하고 있고
표준 API 키이며
OCR 기능을 수행하라고 요청하고
업로드해야 하는 데이터를 보여주고 있습니다.
그래서 우리가 할 일은 네 개 모두를 실행하고
연결해서 캡차에서 어떻게 수행하는지 보고
그다음 다른 각각의 문서들도 살펴볼 거예요.
그래서 다시 상기시켜드리자면
캡차는 이렇게 생겼습니다. CL I
라고 되어 있죠.
질입니다. 이것은 대부분의 모델이
이해하기에 꽤 직관적일 것이고
이것이 바로 사람들이
봇이 웹사이트의 캡차를 풀어버리는 것을
걱정하는 이유입니다. 캡차는 오직
인간만이 읽을 수 있도록 설계된
보안 메커니즘이니까요. 먼저
OCR.space 결과를 살펴보면
여기에 여러 패스 결과가 있고 실제로
패스된 텍스트가 이 필드 안에
나와야 하는데요. 보시다시피
작동하지 않았다는 게 명확합니다. 왜냐하면
실제로는 이 검색 가능한 PDF를 출력했거든요
여기서 바로 열어볼 수 있는데
실제로 이미지는 있지만 만약 우리가
C 같은 문자를 검색해보면
실제로는 아무것도 나오지 않습니다
이게 이미지라는 걸 이해하지 못했고
실제로 이미지를 표현하는 첫 번째 단계에서
실패했습니다. Mistral OCR을
살펴보겠습니다. 이미지에 대해
OCR을 검색하거나 수행하는
마지막 것이 될 것입니다.
그리고 우리가 얻은 것은 효과적으로
실제로 바이너리 섹션으로 가보면
출력 형식인데, 이것은
JSON을 출력하고 있습니다. 왜냐하면
거기에 텍스트가 있다는 걸 인식했고
# CIZ라는 마크다운을 주었는데
이미지에서 추측할 수 있듯이
실제로는 틀렸습니다.
그래서 거기서는 특별히 잘하지 못했네요
이것을 다시 실행하면 다른 때에
실제로 더 나은 성능을 낼지
궁금합니다. 다시 view로 들어가보면
# cisiz로 이해한 것 같네요. 그래서
Mistral이나 OCR.space에서는 첫 시도가
별로 좋지 않았습니다. 그리고 OCR.space는 여전히
거기에 검색할 텍스트가 있다는 걸
이해하지 못했습니다. 그럼 Quen 모델을
살펴보고 더 나은 성능을 보였는지
확인해봅시다. 그런데
이런 캡차들은 컴퓨터가 읽기 어렵게
설계되었습니다. 왜냐하면 그렇지 않으면
많은 봇들이 그것들을 읽어버리기
때문입니다. 이것은 이미지의 텍스트가
chis, C-H-I-Z라고 말하는데, 이것도
완전히 맞지는 않지만 문자들로부터
그것을 어떻게 추론했는지 볼 수 있고
그것이 양식화되거나 장식적인 텍스트로
보인다고 말합니다. Nanet이 어떻게
수행했는지 살펴보겠습니다. 그리고 다시
그것도 실패했습니다. 원시 텍스트가
실제로는 그냥 TZ라고 말했는데 우리가 명확히
볼 수 있듯이 TZ가 아닙니다. 캡차에서는
모든 것들이 실패했습니다. 하지만 다른 것들에서는
이것들이 훨씬 더 나은 성능을 보일 것입니다.
하지만 실제로 오늘날에도 여전히
완벽하지 않다는 걸 볼 수 있습니다. 다음으로 테스트할
샘플은 실제로 인간의 눈으로도 매우
읽기 어렵습니다. 여기 확대해서 보시면
효과적으로 페이지에 몇 개의 표가 있는 것 같은데
명백히 사진이 좋지 않고
조명이 나쁘고, 읽기 어렵고 또한
회전되어 있어서 더욱
어렵습니다. 그리고 우리는 그것을
각각의 다른 OCR 도구들로 실행했습니다.
OCR.space가 있습니다. 이것을
다시 PDF로 열어보겠습니다. 하지만 만약 제가
그것의 어떤 부분이라도 검색해보면
실제로는 그냥 이미지로 반환했고
텍스트는 하나도 통과시키지 않았습니다.
이것이 두 번째인데 실제로 JSON
결과를 보면 텍스트가 전혀 통과되지 않았습니다
이 도구를 잘못 사용하고 있는 건지
아니면 이 샘플들에서 아예 작동하지 않는 건지
모르겠네요. 다음은 Mistral입니다.
이것도 JSON으로 출력했습니다.
마크다운을 보시면
실제로 상당한 양의 텍스트가 있고
실제로 이 텍스트 안에
테이블이 있다는 것도 이해했습니다.
모든 줄을 일일이 확인해서
정확한지 검사하지는 않겠습니다.
이건 잠재적인 출력의 샘플만
보여주는 것이니까요.
특정 문서 유형에 대해 테스트해봐야 합니다.
여기 '어류 및 야생동물 관리 관행'
카운티 보존 책임자가 승인한
계획에 따라'라고 되어 있네요.
확대해보면 실제로 첫 번째 텍스트가
'어류 및 야생동물 관리 관행
카운티 보존 책임자가 승인한
계획에 따라'인 것을 확인할 수 있습니다.
그 다음에 '제5조, 구역, 마당,
높이 요구사항'이 있고
여기 '제5조, 구역, 마당
아, 죄송합니다. 높이 요구사항'이 있습니다.
저보다 더 정확하게 인식했네요.
이걸 마크다운에서 제목으로
표시한 것을 볼 수 있습니다.
이것이 H2 제목이라는 것을
이해했습니다. 그리고 다음 섹션인
아래의 섹션 V는 H3 제목입니다.
이렇게 마크다운으로 변환했다는 것은
이를 디지털 문서로
변환할 수 있다는 의미입니다.
위의 예시에서 본 것과 비슷하게
효과적으로 이런 마크다운
구조를 가질 수 있습니다.
테이블은 이렇게 나타나고
헤더는 이렇게 나타납니다.
입력된 문서와는 다르게 말이죠.
정말 명확합니다. Mistral이
정말 잘 했네요.
Qwen을 살펴보겠습니다.
여기 JSON을 보면 다시
'어류 야생동물 관리 관행
계획 제5조에 따라'라고 되어 있고
여기서도 마크다운 별표를 사용해서
굵은 글씨라고 인식하거나
다른 제목들로 만들었습니다.
Mistral처럼 이것이 H2 헤더라는 것을
완전히 이해하지는 못했지만
아래 테이블과 다양한
정보들을 잘 인식한 것 같습니다.
이것도 정말 잘 작동했네요.
그리고 Nannets는 실제로 여기 아래에
실제 단어들로 추출했지만
원시 텍스트도 있습니다. 하지만
실제로는 여기 원시 텍스트를
제대로 이해하지 못하고
임의의 문자들이 함께 나온 것 같습니다.
Nanet이 요구사항을 제대로
이해하지 못한 것 같네요.
Mistral과 Qwen은 정말 잘 작동했지만
Nannets와 OCR.space는
이 예시에서는 그렇지 못했습니다.
나머지들을 빠르게 살펴보면
이것들이 어떻게 작동하는지 알 수 있고
직접 테스트해볼 수도 있습니다.
여기 손글씨 2 예제가 있는데
이것은 효과적으로 다양한
측정값과 시간들의 테이블이었습니다.
3.75마일, 7.5, 11.25, 15가 있고
아래에는 다양한 측정값들이
있습니다. 이것은 테이블 구조로 되어 있어서
포맷하기가 어려웠습니다. 그래서 실제로 이 문서 하나를
Nanet에 직접 업로드해서 웹사이트를 통해 어떻게 출력되는지
테스트해봤는데,
결과에 매우 놀랐습니다.
결과가 정말 인상적이었거든요.
여기에 업로드했는데
보시면 Nanet의 추출 결과가
3.75마일, 7.5, 11.25, 15로 나왔고
그리고 아래쪽 텍스트 부분에서도
이 부분이 읽기 어려운데도
696, 이건 아마 757로 읽혔고
정말 멋진 점은 결과를
나란히 비교해서 볼 수 있다는 것입니다.
모든 걸 완벽하게 이해하지는 못했지만
여기 아래 부분에서
88, 859로 추정되는 부분에
기호를 넣어놨습니다.
하지만 이것만으로도 작업의 90%를 줄여주고
나란히 비교하면서
차이점을 쉽게 찾을 수 있게 해줍니다.
특히 이렇게 복잡하고
포맷이 이해하기 어려운 경우에는 더욱 그렇죠.
이런 OCR 모델들에서 자주 일어나는 일은
특정 템플릿에 대해 훈련된 OCR 모델이
읽는 방법을 학습한다는 것입니다.
예를 들어, 이런 문서를 읽을 때
이 특정 템플릿을 더 잘 이해하게 됩니다.
컬럼명이 무엇인지 등을 파악했기 때문이죠.
따라서 대량으로 여러 번 업로드할 수 있습니다.
OCR.space도 이번 테스트에서
처음으로 좋은 성능을 보였고
여기 있는 다양한 라인들을 추출해서
과거 텍스트로 라벨링했지만
모든 과거 텍스트보다는
훨씬 짧게 멈춰서
첫 번째 라인만 식별한 것 같습니다.
3.75m, 7.530은 나왔지만
구조에 대한 기본적인 이해가 부족합니다.
여전히 Mistral OCR 같은 것보다는
성능이 떨어지네요.
결과를 빠르게 살펴보겠습니다.
보시면 모든 다양한 결과들이
정말 깔끔하게 분류되어 있습니다.
이것을 마크다운 변환기에 붙여넣으면
여기 있는 것과 정확히 같은 테이블을
디지털 포맷으로 볼 수 있을 것입니다.
OCR과 이미 Nanet 결과도 봤고
이제 그래프가 포함된 이미지를
어떻게 처리하는지 살펴보겠습니다.
결과를 빠르게 살펴본 바로는
그래프를 처리할 때
모든 모델이 특별히 좋은 성능을
보여주지 못했습니다.
OCR.space에서 다시 일부 텍스트를 얻었지만
그 텍스트는 여기서 읽기 쉬운 부분이었고
어떤 모델에게도 어렵지 않았어야 할 부분입니다.
심지어 그래프와 이미지의 맥락을
식별할 수 있다고 자부하는 Mistral도
아래쪽 텍스트 외에는
아무것도 추출하지 못했습니다.
보시면 수동 소형 24비트 매개변수
오픈소스 버전이라고 나와있고
그게 전부입니다. 그리고 아래쪽 텍스트에서도
JSON 요청 내부에서도 그게 전부입니다.
Mistral에는 이를 위한 특별한 매개변수가 있는데
BBox 주석 포맷이라고 하며
업로드된 이미지 안에 이미지가 있거나
이미지 내부에 이미지가 있을 때
이를 식별하는 기능입니다.
이는 이미지 안에 이미지가 있을 때
식별하는 것에 관한 것입니다.
업로드된 이미지나
이미지 내부의 이미지를 식별할 때
PDF 내부에 있는 이미지를 실제로 인식하고
해당 이미지를 영어로 설명해야 합니다.
이러한 매개변수들을 설정했지만
어떤 이유인지 API를 통해 인식하지 못했습니다.
따라서 이 부분에서 어려움을 겪을 수 있습니다.
Quen과 Nanets도 마찬가지입니다.
둘 다 이미지를 인식하지 못했습니다.
이런 경우에는 차라리
LLM을 사용하는 것이 더 나을 수 있습니다.
별도의 영상에서
OCR과 LLM의 비전 모델을 통한 OCR 중
어느 것이 더 나은지 다룰 예정입니다.
하지만 지금은 차트와 같은 경우
해당 파일들을 MLM에 직접 업로드하여
차트 자체에 대한 피드백을 받는 것이
대량 문서 업로드에 특화된
OCR 도구를 사용하는 것보다 낫습니다.
마지막으로 연구 논문을 살펴보겠습니다.
이제 연구 논문만 다뤄보겠는데
이는 다른 것들과 달리
이미지가 아닌 PDF 형태의 연구 논문입니다.
이것은 실제로 OCR.space의 경우
PDF 문서를 받도록 설정하지 않았지만
다른 모든 도구들은 설정했습니다.
따라서 Mistl 하위에
PDF 문서를 허용하는 또 다른 분기가 있으며
Mistl만 PDF 문서를 받도록 설정했습니다.
Quen과 nanets는 이미지만 허용하지만
문서도 받도록 설정하기는 매우 쉽습니다.
안의 매개변수를 변경하기만 하면 됩니다.
예를 들어 여기서
이미지 타입을 다른 것으로 변경하면 됩니다.
이 모든 내용은 오픈 라우터 등의
문서에서 확인할 수 있습니다.
하지만 연구 논문이
어떤 모습인지 다시 한번 보겠습니다.
이것은 더 복잡하고
다른 비즈니스 사용 사례와 더 유사한데
실제로 연구 논문이나 법률 문서는
종종 이상한 문자들을 포함하며
수식뿐만 아니라
다중 페이지도 비즈니스에서
매우 중요한 경우가 많습니다.
예를 들어 Mistl을 통해
이것이 어떻게 나타나는지
보여드리고 싶었습니다.
다시 OCR 출력을 받았고
파일로도 가져갈 수 있지만
그것은 단순히 업로드된 파일입니다.
따라서 바이너리 데이터를 로드하고
실제로 할 수 있는 것은
이 데이터를 가져와서
다양한 인덱스로 분할되었음을 볼 수 있습니다.
첫 번째 부분에는 이미지가 없다고 하며
이것이 마크다운 텍스트입니다.
마크다운에서 PDF로 변환할 수 있고
그것을 여기에 복사해보겠습니다.
더 쉬운 형식으로 텍스트를 효과적으로 볼 수 있습니다.
그렇게 쉬워 보이지는 않지만요.
세타 함수를 계산하는 부분이 있고
돌아가서 여기와 직접 비교해보면
이미지였던 모든 다른 텍스트들을
분해하기 시작할 수 있고
이제 여기서도 사용할 수 있습니다.
모든 올바른 줄 바꿈 등을 넣으면
이 모든 텍스트가 배치되는 것을 보기 시작할 것입니다.
더 복잡한 부분들은
f RN이 r로 향하게 하는 것이고
그것을 인식하기 시작했음을 볼 수 있습니다.
실제로 이러한 수학 기호들을 얻었는데
분리하면 실제로 마크다운으로
변환될지 궁금합니다.
실제로 시도해보았고
그곳에 수학 기호가 있다는 것을 이해했지만
그 수학 기호들을 완전히 추출하지는 못했습니다.
그리고 그것이 마크다운에서
그것들에 접근하는 방법에 대한
제 이해 부족인지
아니면 단순히 올바르게
이해하지 못한 것인지 모르겠습니다.
모든 정보를 매우 명확하게
인식했음을 볼 수 있습니다.
단지 실제 수학 기호와
약간 어려움을 겪고 있을 뿐입니다.
하지만 여기 결과로 돌아가서
보면 수백 개의 마크다운 페이지가 있고
이를 자동화하여 실제로
디지털 문서로 변환할 수 있으며
입력한 이미지와 달리
검색 가능한 문서가 됩니다.
이것이 가장 강력한
4가지 무료 오픈소스
또는 종종 오픈소스인
OCR 템플릿 또는 모델과
N8N 내에서 연결하는 방법에 대한
좋은 아이디어를 제공했기를 바랍니다.
이 영상과 함께 작업하고 싶다면
말씀드린 대로 커뮤니티에 들어가서
템플릿을 가져가세요.
다음 영상에서 다룰 내용은
LLM 대 OCR입니다.
그리고 OCR에 관한 다음 영상은
LLM 대 OCR과 언제 어떤 것을 사용해야 하는지에 관한 것입니다.
LLM이 이제 매우 강력해져서
실제로 많은 비전 기능이
내장되어 있기 때문입니다.
그렇다면 실제로 OCR을 전혀 사용하지 않고
컨텍스트가 내장된 LLM을
사용하는 것으로 되돌아가야 할까요?
시청해 주셔서 감사합니다.
콘텐츠가 마음에 드셨다면 좋아요와 구독 부탁드립니다.