Warp: Claude Code를 대체할 수 있는 CLI 에이전트

채널 아이콘
Prompt Engineering 구독자 190,000명

요약

이 영상에서는 새롭게 떠오르는 AI 코딩 에이전트 분야에서 Warp라는 CLI 기반 에이전트 개발 환경을 소개한다. Warp는 대규모 코드베이스를 읽고, 자연어 명령으로 터미널 명령어를 실행하며, 자동으로 리포지토리를 클론하고 가상 환경을 설정까지 수행한다. 실제로 Local GPT 프로젝트에 컨텍스추얼 리트리벌 기능을 슬라이딩 윈도우 방식으로 구현하는 과정을 시연해 새로운 소프트웨어 개발 패러다임을 제시한다.

주요 키워드

AI coding agent Warp Agent Development Environment 컨텍스추얼 리트리벌 슬라이딩 윈도우 quantized model bash 자동화 Local GPT virtual environment 음성 입력

하이라이트


  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

  • Warning: htmlspecialchars() expects parameter 1 to be string, array given in /var/www/youtubetranscribeapi/public/detail.php on line 907

용어 설명

CLI 에이전트

터미널 환경에서 자연어 명령을 해석해 코딩 및 시스템 작업을 수행하는 AI 에이전트.

Agent Development Environment

에이전트가 코드베이스를 읽고 작업 계획을 세워 자율적으로 실행까지 할 수 있는 통합 개발 환경.

컨텍스추얼 리트리벌

문서 청크에 주변 청크 요약을 추가해 더 풍부한 맥락 정보를 제공하는 검색 기법.

슬라이딩 윈도우

전체 문서 대신 인접한 일정 범위(예: 앞뒤 두 청크)만 요약해 처리 지연과 메모리 사용을 줄이는 방법.

양자화 모델(quantized model)

메모리 사용량과 연산량을 줄이기 위해 가중치 정밀도를 낮춘 경량화된 언어 모델.

[00:00:00] AI 코딩 에이전트의 등장과 Warp 소개

AI 보조 IDE의 한계를 짚고, Cloud Code·Jewels처럼 자율적 코딩이 가능한 에이전트 시장의 흐름을 설명한다. Warp가 이 카테고리에 새로 합류한 이유와 역할을 간략히 안내한다.

AI 보조 IDE들의 한계와 새로운 AI 코딩 에이전트 카테고리의 등장을 소개합니다. Cursor나 Windsurf는 뛰어나지만 사람의 개입이 필요한 반면, Claude Code와 Devins 같은 새로운 도구들은 자율적이고 비동기적으로 작업할 수 있습니다.
Warp라는 새로운 에이전트 개발 환경을 소개합니다. Claude Code와 유사한 기능을 제공하며 대규모 코드베이스와 함께 작업할 수 있고, 이 영상에서는 Local GPT에 컨텍스트 검색 기능을 구현하는 실제 예시를 보여줄 예정입니다.
Warp의 인터페이스와 주요 기능들을 탐색합니다. 다양한 최신 대형 언어 모델 선택, 자동 모드, 이미지 첨부, GitHub 연결, 음성 입력 등의 기능을 제공하며, 자동 감지 기능으로 에이전트 모드와 일반 터미널 모드를 자동 전환할 수 있습니다.
[00:00:53] Warp 첫 실행 화면과 주요 기능

터미널과 유사한 인터페이스에서 사용할 수 있는 최신 LLM 선택, 음성 입력, 이미지 첨부, GitHub 연동 옵션을 살펴본다. 일반 모드와 에이전트 모드를 자동 감지하는 기능도 소개한다.

타임라인 정보가 없습니다.

[00:01:46] 자연어 명령으로 터미널 제어

‘이 폴더 파일을 크기순으로 나열해줘’ 같은 자연어 요청을 받아 bash 명령을 생성·실행하는 과정을 시연한다. 명령어를 외울 필요 없는 터미널 사용법을 보여준다.

음성 입력을 통한 자연어 명령 처리 예시를 시연합니다. '폴더의 모든 항목을 크기순으로 정렬해달라'는 자연어 요청을 받아 bash 명령어를 생성하고 실행한 후, 결과를 분석하여 자세한 정보를 제공하는 과정을 보여줍니다.
Warp의 진정한 매력인 에이전트 개발 환경을 강조하며, 20,000개 이상의 스타를 받은 개인 프로젝트인 Local GPT 코드베이스를 대상으로 실제 예시를 진행할 예정임을 안내합니다.
[00:02:51] 에이전트 개발 환경에서 개인 프로젝트 준비

20,000개 이상의 스타를 받은 Local GPT 개인 프로젝트를 Warp 에이전트에게 맡긴다. 전체 코드베이스 이해, 클론, 가상 환경 설정 등 준비 과정을 에이전트가 진행하도록 한다.

오랫동안 업데이트되지 않은 코드베이스에 Anthropic의 컨텍스트 검색 기법을 구현하기 위해 Warp 에이전트를 활용할 계획을 설명하며, 첫 번째 단계로 저장소 복제와 분석을 시작합니다.
[00:03:24] 리포지토리 클론부터 가상 환경 구축

에이전트가 지정된 폴더명으로 리포지토리를 클론하고, readme를 분석해 프로젝트 실행에 필요한 가상 환경을 생성·의존성 설치까지 자동으로 수행한다.

에이전트에게 GitHub 레포지토리를 클론하고 분석해서 프로젝트 구조를 파악한 후 가상 환경을 설정하도록 요청합니다. 나중에 새로운 기능 구현도 요청할 예정입니다.
에이전트가 명령어를 생성하여 local GPT contextual 폴더에 레포를 클론합니다. 기본적으로 각 명령을 수동으로 실행하도록 하지만 자동 실행 기능도 제공합니다.
로컬 머신에 local GPT를 설정하라고 요청하고 모든 작업을 자동 승인합니다. 에이전트가 디렉토리로 이동하여 readme 파일을 읽고 지시사항을 파악합니다.
디렉토리 변경 과정에서 약간의 문제가 발생했지만 에이전트가 자동으로 복구하고 가상 환경을 생성하여 모든 패키지를 다운로드하기 시작합니다.
[00:05:03] 환경 설정 중 에이전트의 판단과 복구

운영체제에 맞는 llama CPP 버전을 선택하고, 양자화 모델을 활용해 Apple Silicon 호환성을 최적화한다. 설치 중 발생한 오류도 스스로 복구하고 재실행 가이드를 만든다.

Local GPT는 운영체제에 따라 다른 버전의 llama CPP를 설치해야 하는 까다로운 설치 과정이 있습니다. 에이전트가 readme를 읽고 Mac OS용 Apple 실리콘 버전을 자동으로 선택합니다.
에이전트가 매우 지능적인 결정들을 보여줍니다. 기본 llama 38억 모델 대신 게이트되지 않은 양자화 버전을 선택하여 Apple 실리콘에서 더 나은 성능을 확보했습니다.
지시사항을 따라 소스 문서 폴더의 예시 문서를 확인하고 가상 환경을 활성화한 후 주입 파이프라인을 실행합니다. 에이전트는 전체 과정에서 수행한 단계들과 출력 결과를 지속적으로 추적합니다.
벡터 스토어 생성 상태를 확인하고 함수 로드 문제를 복구한 후, 로컬 GPT 실행을 위한 가이드와 bash 스크립트를 생성했습니다.
[00:06:39] 리트리벌 파이프라인 테스트

기본 제공 문서를 대상으로 벡터 스토어 생성, 문서 삽입(injection) 파이프라인을 실행한다. 문서별 청크와 메타데이터를 확인하며 인용 답변까지 생성해 본다.

리트리벌 파이프라인 실행 방법을 파악하고, 문서 소스 플래그를 사용하여 코드베이스를 분석합니다.
로컬 GPT가 기본 논문 문서로 동작하며, 사용자 문서를 추가하여 채팅할 수 있고, 모델이 답변과 함께 문서 청크를 인용합니다.
로컬 GPT에 맥락적 리트리벌 기능을 구현하기 위해, 전체 문서 대신 슬라이딩 윈도우 접근법을 사용하여 주변 청크들만 고려하는 방식을 제안합니다.
[00:07:56] 컨텍스추얼 리트리벌 설계

Enthropic의 제안 기법을 변형해 슬라이딩 윈도우 방식으로 인접 두 청크만 사용해 요약 컨텍스트를 생성하는 방안을 설명한다. 지연 시간을 줄이고 관련성 높은 요약을 확보한다.

웹 검색을 통해 문서를 분석하고, 각 청크에 대해 주변 두 청크만 사용하는 변형된 맥락적 리트리벌 방법을 구현하도록 요청합니다.
에이전트가 문서 내용을 파악하고 구현 위치를 결정한 후, 새로운 모듈을 작성해 맥락적 리트리벌을 구현하며 변경사항을 메인 파이프라인에 적용합니다.
[00:09:31] 코드로 보는 컨텍스추얼 리트리벌 구현

에이전트가 새 모듈을 생성하고 기존 인젝션 파이프라인에 통합한다. 주석과 README를 자동으로 작성해 어떻게 실행·테스트해야 할지 안내까지 포함한다.

변경사항이 메인 파이프라인에 적용되어 새로운 모듈이 가져와지고 청킹 과정에서 사용될 것입니다.
현재는 수동 승인 방식을 사용하지만 자동 승인도 가능하며, 에이전트가 자동으로 작업을 승인하고 진행할 수 있습니다.
컨텍스추얼이 활성화되면 각 청크와 주변 윈도우를 새로 생성한 모듈로 전달하게 됩니다.
새로운 컨텍스추얼 검색 구현을 위한 readme가 생성되었고, 문제가 발생했지만 복구할 수 있었습니다.
실행 결과 각 청크마다 컨텍스트 요약이 추가되고 원본 청크가 뒤따르는 형태로 출력됩니다.
[00:10:45] Orca 논문 실전 테스트

51페이지 분량의 Orca 논문을 청크 단위로 처리해 컨텍스트 요약을 추가한 뒤 실제 질문에 대한 답변을 생성한다. 각 청크별 요약과 원본 내용이 함께 제공된다.

ORCA 논문 51페이지 전체를 처리했으며, 개별 청크마다 처리해야 해서 시간이 걸렸습니다.
LLaMA와 ORCA 비교 질문에 대한 검색 결과를 확인해보면, 각 청크에 주변 청크를 기반으로 한 요약과 원본 청크가 포함되어 있습니다.
에이전트 개발 환경으로 소프트웨어를 구축하는 방법을 보여주는 튜토리얼로, 아키텍트 역할을 하면서 에이전트 그룹이 코드베이스를 구현하는 새로운 패러다임을 제시합니다.
[00:11:20] 새로운 개발 패러다임과 Warp 제안

에이전트 개발 환경을 통해 아키텍트가 에이전트를 지휘해 코드베이스를 완성하는 미래 소프트웨어 개발 패러다임을 제시한다. Warp 무료 체험 및 업그레이드 안내로 마무리한다.

타임라인 정보가 없습니다.

Cursor나 Windsurf 같은 AI 보조 IDE는 코딩에 정말 뛰어나지만
대부분의 경우 여전히 사람의 개입이 필요합니다
하지만 이제 새로운 카테고리의
AI 코딩 에이전트가 등장하고 있습니다
여기에는 Claude Code와
Devins 같은 도구들이 포함되는데
이들은 코딩 작업을
자율적이고 비동기적으로 수행할 수 있습니다
이 카테고리에 새로운 도구가 추가되었는데
바로 Warp입니다
Warp는 에이전트 개발 환경으로
분류될 수 있습니다
Claude Code와 매우 유사한 기능을 제공하며
대규모 코드베이스와 함께 작업할 수 있습니다
이 영상에서는 Warp의 에이전트를 사용해서
Local GPT에
새로운 컨텍스트 검색 기능을 구현하는
실제 예시를 보여드리겠습니다
오늘 영상의 스폰서이기도 하지만
도구 자체가 정말 놀랍습니다
그럼 시작해보겠습니다
Warp를 처음 실행했을 때의 인터페이스입니다
터미널처럼 보이지만
Warp의 에이전트 개발 환경을 사용해서
대규모 코드베이스에서
새로운 기능을 구현하는 방법을 보여드리겠습니다
먼저 사용 가능한 기능이나
옵션들을 살펴보겠습니다
첫 번째로
최신 대형 언어 모델들을 다양하게 선택할 수 있습니다
저는 자동 모드를 선호하는데
에이전트가 작업의 복잡성에 따라
어떤 모델을 사용할지 결정하기 때문입니다
또한 이미지를 첨부하거나
GitHub 저장소를 연결할 수 있고
음성 입력 기능도 있어서 정말 유용합니다
원한다면 일반 터미널 모드로 사용하거나
자동 감지 기능을 사용할 수 있는데
이는 에이전트 모드와 일반 터미널 사이를
자동으로 전환합니다
예를 들어 이런 bash 명령어를 입력하면
bash 명령어를 실행해줍니다
다시 ls를 실행하면 bash 명령어를 실행합니다
하지만 음성 입력 모드를 사용해서
자연어로 음성 명령을 제공하면
자동으로 에이전트 모드로
전환됩니다
예시를 보여드리겠습니다
이 폴더의 모든 항목을 나열하고
크기순으로 정렬해줄 수 있나요?
자연어 쿼리를 받아서 텍스트로 변환했습니다
이제 실행하면 에이전트가
먼저 쿼리나 bash 명령어를
생성하는 것을 볼 수 있습니다
실행할 bash 명령어의 결과입니다
그리고 대형 언어 모델을 사용해서
결과를 분석하고
폴더에 있는 내용들을 크기순으로 정렬해서
정말 자세한 정보를 제공합니다
정말 훌륭합니다
더 이상 bash 명령어를 기억할 필요가 없습니다
터미널과 자연어로
상호작용할 수 있습니다
Warp의 진정한 매력은
에이전트 개발 환경입니다
영상의 나머지 부분에서는
에이전트를 사용해서 제 Local GPT
코드베이스와 상호작용해보겠습니다
이는 제 개인 프로젝트로
20,000개 이상의 스타를 받았습니다
코드베이스를 업데이트한 지
꽤 오래되어서 Warp의 에이전트를 사용해
새로운 기능을 구현하고 싶습니다
구체적으로는 Anthropic의
컨텍스트 검색 기법을 구현하고 싶습니다
먼저 에이전트에게
저장소를 복제하고 분석해서
이 레포지토리를 클론하고, 레포지토리의
내용을 분석해서 레포에 정확히
무엇이 들어있는지 스스로 파악하고,
프로젝트를 실행하기 위한
가상 환경을 설정하도록 할 거예요.
그리고 나중에 영상에서 이 새로운
기능을 구현하도록 요청할 거예요.
에이전트에게 레포를 get 폴더에
클론하라고 요청하고 에이전트가
모든 걸 처리하게 할 거예요.
보시다시피 명령어를 생성했어요.
특히 폴더 이름을 local GPT contextual로
하고 싶었는데, 그렇게 할 수 있었어요.
기본적으로 각 명령을 수동으로
실행하도록 요청하는데, 이건 정말
좋은 기능이에요. 특히 샌드박스 밖에서
실행하는 경우라면요. 하지만 자동 실행도
활성화할 수 있는데 이것도 꽤 멋져요.
지금까지는 레포만 클론했네요.
이제 제 머신에 local GPT를
설정하라고 요청해볼게요. 그리고 모든 걸
자동 승인하겠습니다. 먼저 디렉토리로
이동하네요. 그리고 readme 파일을 보고
지시사항을 읽고 있어요.
다시 말하지만 저는 코드베이스만 제공했는데
이제 이 특정 프로젝트를 제 로컬
머신에서 실행하는 방법을 자동으로 파악하고
있어요. 정말 멋지네요.
여기서 문제가 발생한 것 같아요.
디렉토리를 변경하려고 했는데 이미
거기에 있었던 것 같네요. 이제
그 문제를 복구하고 있어요.
지금 가상 환경을 생성하고
모든 패키지를 다운로드하는 것 같네요.
여기서 보시다시피 가상
환경을 생성했어요. 이제 명령을
실행하고 있네요. 가상 환경을
활성화했고 이제 모든
의존성을 설치하고 있어요.
정말 놀라운 것은 에이전트가
readme 파일을 읽고 모든
지시사항을 따르고 모든
의존성을 설치할 수 있다는 거예요. 정말 멋진 일이죠.
한 가지 더, local GPT는 설치하기가
조금 까다로운데 왜냐하면
사용하는 운영체제에 따라
다른 버전의 llama CPP를
설치해야 하거든요. 지금 readme를
읽고 있고 제가 Mac OS에서
실행하고 있으니까 Apple 실리콘용
특정 버전을 사용하기로 결정했어요.
정말 멋지네요. 코딩 에이전트가
한 아주 흥미로운 일들을
보여드릴게요. 첫 번째는
기본적으로 local GPT는 llama 38억 모델을 사용하는데
우리는 공식 메타 버전을 사용하고 있고
이건 게이트 모델이에요. 그래서
허깅페이스 계정에 그에 대한
액세스 권한을 부여해야 하죠. 하지만
Warp 에이전트는 게이트되지 않은 양자화된
버전을 사용하기로 했고, 제가 Apple 실리콘에서
사용하고 있으니까 이 양자화된
버전이 더 잘 실행될 거예요.
모델이나 에이전트가 그걸
결정했다는 게 꽤 흥미로워요. 그리고
지시사항을 따라서 소스 문서
폴더를 살펴봤는데 예시 문서가
있어서 계속 진행해서
가상 환경을 활성화한 후
주입 파이프라인을 실행했는데 이게 아주
흥미로웠어요. 그리고 전체 과정에서
에이전트는 실제로 자신이 취한
단계들을 추적하고 있고
출력이 어떻게 보이는지도 말이에요. 예를 들어
여기서는 벡터 스토어가 생성되었는지 확인하고 있어요.
벡터 스토어가 생성되었는지 확인합니다. 이제
특정 함수를 로드할 수 없는 문제가 발생했지만
이를 복구할 수 있는 것 같고
설정을 다시 실행하는 방법에 대한
가이드를 만들어주었고, 로컬 GPT를 실행할 수 있는
유용한 bash 스크립트도 생성했습니다.
하지만 이제 리트리벌 파이프라인을 실행해서
제공한 문서들을 기반으로 질문할 수 있도록
하고 싶습니다.
이걸 파악할 수 있는지 보겠습니다.
다음으로 리트리벌 파이프라인을 어떻게
실행하는지 물어보니
파이프라인 실행 방법을 알아냈고
특히 문서 소스를 요청했기 때문에
해당 플래그도 사용하고 있습니다.
실제로 코드베이스를 살펴보고 있네요.
이것을 실행하고
모델이 로드되길 기다려봅시다.
로컬 GPT는 기본적으로
이 논문을 소스 문서로 제공하지만
자신만의 문서를 가져와서
채팅할 수도 있습니다.
좋습니다. 여기 하나의 질문이 있습니다.
모델이 답변을 생성했고
제공한 문서에서 특정 청크들을
인용하기도 했습니다.
모든 것이 정상적으로 작동하는 것 같습니다.
출력의 품질은
로컬 GPT가 사용하는 모델에 따라
달라질 것입니다.
이제 로컬 GPT 내에
이 맥락적 리트리벌 기능을 구현하고 싶습니다.
아이디어는 각 청크마다
주변 청크들의 요약을
추가하는 것입니다.
맥락적 리트리벌은 전체 문서를 사용해서
요약을 생성하지만, 저는
슬라이딩 윈도우 접근법을 구현하고 싶습니다.
이는 주어진 청크 주변의 특정
청크들만 고려하고
요약을 생성할 때
전체 문서 대신 사용하는 것입니다.
여기 사용할 프롬프트가 있습니다.
청킹 과정에서
맥락적 리트리벌을 구현하도록 요청할 것입니다.
문서도 제공했습니다.
웹 검색 도구를 사용해서
이 웹 링크의 내용을 실제로
가져와서 이해할 것입니다.
하지만 제안된 방법의 변형을 원합니다.
주어진 청크의 맥락적 요약을
생성하기 위해 전체 문서 대신
현재의 두 청크만 사용하고 싶습니다.
각 청크에 대해 주변의 두 청크라고 하겠습니다.
슬라이딩 윈도우 접근법은
지연시간을 줄이고
요약이 현재 청크와
관련성을 유지하도록 보장합니다.
먼저 에이전트가 이 문서가 무엇에 관한 것인지
파악해야 합니다.
그 다음 정확히 어디에 변경사항을
구현할지 파악하고
그 변경사항들을 구현합니다.
맥락적 리트리벌 방법을 구현하기 위해
완전히 새로운 모듈을 작성했고
제공한 웹 링크를 기반으로 한
구현이 올바른 것 같습니다.
여기 사용할 프롬프트가 있습니다.
주변 청크들과
텍스트 청크들을 가져와서
이를 LLM에 전달해
요약을 생성합니다.
변경사항을 적용하고 이제
모든 변경사항을 메인 파이프라인에 가져오고 있습니다.
파이프라인으로 이동합니다. 실제로
새로운 모듈을 가져온 차이점을 확인할 수 있습니다.
생성된 모듈이고 청킹 과정에서
이 새로운 모듈을 사용할 것입니다.
좋습니다, 변경사항이 적용되었습니다.
현재 제가 모든 것을 수동으로 승인하고 있지만
자동 승인을 활성화할 수 있고
에이전트가 자동으로
작업을 승인하고 계속 진행하겠지만
지금은 정확히 무엇을 하는지
더 많은 제어권을 갖고 보고 싶습니다.
이것이 주요 변경사항이었습니다.
컨텍스추얼이 활성화되면
각 청크와 그 주변 윈도우를
우리가 생성한 새로운 모듈로 전달할 것입니다.
새로운 컨텍스추얼 검색 구현을
실행하는 방법에 대한 readme를 생성했고
시도했을 때 다른 문제가 발생했지만
복구할 수 있었습니다.
이제 새로운 컨텍스추얼 검색
구현으로 주입 과정을 다시 실행하겠습니다.
구현으로 다시 실행하겠습니다.
실행했을 때 출력이 어떻게 보이는지
확인해보겠습니다.
모든 청크마다
컨텍스트가 될 작은 요약을 추가하고
원본 청크가 뒤따를 것입니다.
요약인 컨텍스트가 있고
그 다음에 원본 청크가 있습니다.
ORCA 논문 51페이지 전체에 대해
전체 과정을 실행했습니다.
개별 청크마다 처리해야 해서
시간이 좀 걸렸지만
검색이 어떻게 보이는지 확인해봅시다.
이 질문에 대한 검색입니다.
LLaMA가 ORCA와 어떻게 비교되는가? 여기
생성되는 답변입니다.
컨텍스트에서 사용하는 각 청크를 보면
주변 청크들을 기반으로 한
해당 청크의 요약이 있고
그 다음에 원본 청크가 있습니다.
이제 PR을 생성해서 Local GPT에 푸시하고
이 새로운 기능을 구현할 수 있습니다.
이것은 에이전트 개발 환경으로
소프트웨어를 구축하는 방법에 대한 간단한 튜토리얼이었고
이제 아키텍트로 일할 수 있고
에이전트 그룹이
코드베이스를 구현할 수 있다는 것을 보여줍니다.
이것은 소프트웨어 구축의 새로운 패러다임입니다.
새로운 패러다임입니다.
Warp를 무료로 시작할 수 있습니다.
월 150개의 AI 요청을 제공합니다.
유료 버전으로 업그레이드할 수도 있는데
적극 추천합니다.
어쨌든 한번 확인해보세요.
링크는 영상 설명에
있을 것입니다.
이 영상이 유용했기를 바랍니다.