클로드의 네이티브 메모리: 첫인상 및 여전히 뛰어난 메모리 MCP의 이유

채널 아이콘
JeredBlu 구독자 6,020명

요약

이 영상은 Anthropic의 Claude, Google의 Gemini, ChatGPT 등의 네이티브 메모리 기능을 살펴보고, AI 메모리가 제공하는 시간 절약 효과와 함께 문맥 오염이라는 부작용을 짚습니다. 또한 MCP(Memory Control Protocol) 기반의 Basic Memory를 Obsidian과 연동해 직접 편집·제어하는 방법을 소개하며, 플랫폼 간 통합 메모리의 가능성을 논의합니다. 전반적으로 메모리가 AGI로 가는 첫걸음인 이유와 함께, 효율적인 ‘컨텍스트 엔지니어링’의 중요성을 강조합니다.

주요 키워드

MCP context window context engineering LLM AGI hallucination Basic Memory Obsidian unified memory memory poisoning

하이라이트

  • 🔑 Gemini와 Claude가 과거 대화 참조 기능을 탑재해 사용자가 이전 질문·답변을 자동으로 인식하도록 만들었습니다.
  • ⚡️ 메모리 기능은 대화 재설명을 줄여줘 작업 효율을 극적으로 높여주지만, 잘못 구현하면 오히려 비효율을 초래할 수 있습니다.
  • 🌟 과거 대화 전체가 문맥으로 유입되면 ‘문맥 오염’으로 챗봇이 잘못된 추론이나 환각(hallucination)을 일으킬 수 있습니다.
  • 📌 ChatGPT는 저장된 메모리(saved memories)와 수동 관리 메모리(managed memories) 두 가지 방식을 지원해 사용자가 세밀하게 기억을 추가·삭제할 수 있습니다.
  • 🚀 MCP 기반 Basic Memory는 마크다운 파일로 메모리를 저장해 Obsidian으로 손쉽게 편집·관리할 수 있어 완전한 제어권을 제공합니다.
  • 🔄 현재 AI별로 분리된 메모리를 통합해 공유한다면 개인화된 기억을 모든 AI에 일관되게 적용할 수 있습니다.
  • ⚙️ ‘컨텍스트 엔지니어링’은 필요 정보만 선별해 단기 메모리(컨텍스트 윈도우)를 효율적으로 활용하기 위한 핵심 방법입니다.
  • 🛠️ 세부 토글(on/off)과 메모리 직접 편집 기능은 향후 AI 사용 경험을 결정짓는 중요한 요소가 될 것입니다.

용어 설명

MCP

Memory Control Protocol(메모리 제어 프로토콜)로, 외부 메모리 서버에 AI 대화 기록을 저장·연동하는 표준

컨텍스트 윈도우

LLM의 단기 기억 범위로, 주어진 대화 길이에 따라 모델이 한 번에 처리할 수 있는 토큰 용량

컨텍스트 엔지니어링

LLM에게 최적의 응답을 이끌어내기 위해 필요한 문맥을 선별·관리하는 기법

환각(hallucination)

AI가 부정확하거나 사실이 아닌 응답을 생성하는 오류 현상

LLM

Large Language Model(대형 언어 모델)의 약자로, 대규모 텍스트 데이터를 학습한 AI 언어 모델

AGI

Artificial General Intelligence(범용 인공지능)의 약자로, 인간 수준의 일반 지능을 목표로 하는 단계

Basic Memory

MCP 기반 외부 메모리 서버 중 하나로, 마크다운 파일 형태로 대화 기록을 저장·관리

Obsidian

마크다운 편집기 기반 개인 지식관리 도구로, Basic Memory를 연동해 메모리를 직접 편집 가능

문맥 오염(memory poisoning)

불필요하거나 잘못된 과거 대화가 문맥에 누적돼 AI 성능을 저하시킬 위험

[00:00:00] 클로드와 제미니의 네이티브 메모리 기능 공개

Anthropic의 Claude와 Google의 Gemini가 기존 대화를 참조할 수 있는 네이티브 메모리 기능을 발표한 배경과 초기 경험을 다룹니다.

Anthropic과 Google이 Gemini와 Claude에 ChatGPT와 유사한 메모리 기능을 추가했다고 발표했습니다. 제가 좋아하는 음식을 물었더니 과거 대화를 참조해서 제 특별한 인앤아웃 버거 주문 방식까지 정확히 기억하고 있었어요.
이 영상에서는 AI 메모리가 맥락에 미치는 좋은 영향과 나쁜 영향에 대해 다룰 예정입니다. 주로 Claude에 집중하되 ChatGPT와 Gemini도 언급하고, 제가 선호하는 메모리 MCP 서버를 소개할 것입니다.
[00:00:24] AI 메모리의 장단점 개요

AI가 과거 대화를 자동 참조해 문맥 설명 시간을 줄여주지만, 잘못 사용하면 오히려 비효율을 초래할 수 있는 양면성을 설명합니다.

이 기능에 대해 흥미로우면서도 조심스럽게 생각하고 있습니다. 속도 제한으로 대화를 다시 시작해야 하거나 이전 내용을 재설명해야 하는 번거로움을 해결해주지만, 잘못 구현되거나 사용되면 오히려 비효율적일 수 있거든요.
[00:00:57] 클로드에서 메모리 활성화 방법

현재 Claude 메모리 기능은 Max 플랜 이용자에 한해 설정의 ‘대화 환경설정’에서 검색 및 참조 기능을 켜야 사용 가능합니다.

Claude의 메모리 기능을 사용하려면 설정에서 '대화 기본설정'의 '검색 및 참조 채팅'을 활성화해야 하며, 현재는 Max 플랜 사용자만 이용 가능합니다. 자신이나 과거 대화에 대한 질문을 하면 해당 내용을 기억해낼 수 있습니다.
실제 테스트에서 어떤 안경을 쓰는지 물어봤더니 반년 전 대화를 참조해서 레이밴 메타 안경 사이즈 변경 과정과 처방 렌즈, 구매 시점까지 정확히 기억하고 있었습니다.
베타 버전임에도 불구하고 두 가지 훌륭한 기능이 있습니다. 첫째, 관련 채팅을 참조할 때 이를 명시적으로 알려주는 가시성을 제공합니다. 둘째, 웹에서 해당 대화로 직접 이동할 수 있어 Claude 검색 기능을 개선하고 이전 채팅에서 원하는 내용을 정확히 찾을 수 있게 도와줍니다.
[00:01:43] ChatGPT의 메모리 유형 비교

ChatGPT는 ‘저장된 메모리’와 ‘관리형 메모리’를 구분해, 자동 참조 또는 사용자가 직접 추가·삭제하는 두 가지 방식을 제공합니다.

아쉬운 점은 검색 및 도구 버튼에서 이 기능을 쉽게 켜고 끌 수 없다는 것입니다. 확장 사고 기능처럼 간편하게 토글할 수 있는 설정이 되어야 한다고 생각합니다.
[00:02:06] MCP 기반 메모리: Basic Memory 소개

MCP 서버인 Basic Memory는 대화 기록을 마크다운 파일로 저장해 Obsidian에서 손쉽게 수정·관리할 수 있어 사용자가 완전 제어권을 갖습니다.

Claude의 프로젝트 기반 검색 기능을 설명하며, 각 프로젝트 내에서만 대화를 검색할 수 있어 경계가 명확하다는 장점을 언급합니다.
ChatGPT의 두 가지 메모리 유형을 비교 설명하며, 저장된 메모리와 관리 메모리의 차이점을 소개합니다. Gemini의 새로운 메모리 기능과 임시 채팅 기능도 함께 다룹니다.
여러 AI 플랫폼을 사용하면서 메모리가 각각 분리되어 저장되는 문제점을 지적하고, MCP 기술을 통해 메모리 공유가 가능해질 것이라는 전망을 제시합니다.
[00:03:00] 내장 메모리 기능 요약

각 AI가 메모리를 별도 저장해 사일로화되는 문제를 지적하며, 기본 제공 네이티브 메모리 기능의 장점과 한계를 비교합니다.

기본 메모리 MCP 구현체의 장점을 설명하며, 마크다운 파일로 저장되어 직접 편집이 가능하고 Obsidian으로 관리할 수 있다는 점을 강조합니다.
[00:03:37] 문맥 한계와 AGI를 향한 단기 기억 문제

AGI로 가려면 단기 메모리 한계를 넘어야 하며, 현재는 ‘컨텍스트 윈도우’라는 짧은 단기 메모리 용량이 핵심 제약으로 작용합니다.

기본 메모리의 다양한 도구들을 나열하고, Claude 데스크톱, 코드, Cursor, Gemini 등 여러 플랫폼에서 동일한 메모리 뱅크를 공유할 수 있는 이점을 설명합니다.
MCP 기반 메모리의 한계점으로 모바일 클라이언트에서는 지원되지 않는다는 점을 언급하며, 컴퓨터 작업 시에는 네이티브 메모리 기능을 선호한다고 결론짓습니다.
Claude와 Gemini 등의 내장 메모리 기능과 MCP 구현들에 대해 언급하며, 이러한 기능들이 양날의 검이라고 설명합니다. 모든 것이 컨텍스트와 관련이 있다고 강조합니다.
메모리가 AGI 달성을 위한 핵심 구성요소 중 하나라고 설명합니다. 현재의 메모리와 AGI용 메모리는 다르지만, 단기 메모리 한계를 극복하기 위한 중요한 첫걸음이라고 평가합니다.
컨텍스트 윈도우의 한계에 대해 설명합니다. 채팅이 길어질수록 컨텍스트 윈도우가 작아지고 효율성이 떨어진다고 지적하며, 지난 1년간 AI 회사들이 더 큰 컨텍스트 윈도우를 가진 모델들을 출시했다고 언급합니다.
[00:05:00] 컨텍스트 엔지니어링과 문맥 오염

과도한 문맥(컨텍스트 슬롭)은 AI의 성능을 저하시키고 환각을 유발하므로, 필요한 정보만 선별해 대화에 활용해야 함을 강조합니다.

컨텍스트 엔지니어링의 중요성을 강조합니다. 큰 컨텍스트 윈도우를 가져도 실제 성능이 좋지 않을 수 있으며, 컨텍스트를 신중하게 관리해야 한다고 설명합니다. 컨텍스트는 LLM에서 가장 중요한 요소라고 강조합니다.
AI가 과거 대화를 참조할 수 있는 것은 유익하지만, 동시에 컨텍스트를 오염시킬 수 있다고 경고합니다. 모든 프롬프트와 AI 응답이 컨텍스트로 계산되며, 이로 인해 환각이나 혼란이 발생할 수 있다고 설명합니다.
컨텍스트 슬롭 문제와 AI의 혼란에 대해 설명합니다. 대화의 매 턴마다 모든 컨텍스트가 재추가되어 복합적인 문제가 발생하고 채팅이 오염될 수 있다고 경고하며, 메모리는 좋지만 제어 가능해야 한다고 결론짓습니다.
[00:06:40] MCP 구현의 제어권과 통합 메모리 전망

MCP 기반 메모리는 토글 스위치로 on/off가 가능하고, 다양한 LLM에 연동해 통합 메모리 시스템을 구축할 수 있는 미래상을 제시합니다.

AI 메모리는 제어 가능해야 한다고 강조하며, 자신만의 기억을 관리할 수 있다면 좋겠지만 인간의 기억은 뇌에 하드코딩되어 있다고 설명합니다.
AI에게는 기억이 유익할 수 있지만 과거 맥락이 대화를 오염시키는 문제점을 지적하며, 특히 중요한 결정이나 업무용도로 AI를 사용할 때 더욱 중요하다고 강조합니다.
MCP 구현 메모리의 장점을 설명하며, 기억 편집 가능성과 설정 없이 간편한 on/off 기능을 언급하고, 미래에는 모든 LLM과 AI에 연결 가능한 통합 메모리 시스템을 기대한다고 말합니다.
메모리 기능 전체에 대한 긍정적 평가를 하며, Anthropic의 더 세밀한 제어 기능 개발과 AI 플랫폼 간 기억 공유 기능을 희망한다고 밝힙니다.
[00:07:28] 결론 및 기대 효과

메모리 기능은 AI 효율성을 크게 높이는 동시에 문맥 오염 위험을 동반하므로, 세부 제어와 플랫폼 간 공유 기능의 도입을 촉구합니다.

타임라인 정보가 없습니다.

이번 주 Anthropic과 Google이 모두
Gemini와 Claude가 이제 이전 대화를
볼 수 있다고 발표했습니다.
ChatGPT가 과거 대화를
볼 수 있는 방식과 매우 유사한 메모리 기능이죠.
제가 좋아하는 음식을 물어봤더니
관련 채팅을 찾아서 햄버거라고 답했어요.
간단하죠. 당연히 인앤아웃 버거인데
제 특별한 주문 방식까지 기억하고 있었습니다.
더블 미트, 애니멀 스타일, 엑스트라 토스트 번
머스터드, 생 다진 양파, 애니멀
스타일 프라이즈, 치즈 없음. 아는 사람은 알죠.
그래서 이 영상에서는
AI 메모리에 대해 이야기하고
그것이 맥락에 좋은 점과 나쁜 점을
주로 Claude에 초점을 맞춰 다루되
ChatGPT와 Gemini에 대해서도 이야기할 거예요.
그리고 제가 가장 좋아하는 메모리 MCP
서버를 보여드릴 텐데 이 기능은 상당히
논란이 많습니다. 흥미롭긴 하지만
동시에 조심스럽기도 해요.
왜 그런지 설명해드리겠습니다. 우선,
몇 번이나 AI와 대화를 하다가
속도 제한 때문에 다시 시작해야 했던 적이 있나요?
이전 대화에서 배운 내용을 다시 설명해야 했죠.
정말 짜증나는 일이고
과거 채팅을 보고 맥락을 파악하는 능력은
굉장히 큰 도움이 됩니다.
우리에게 많은 도움이 될 거예요.
많은 시간을 절약해줄 것입니다. 하지만
반대편도 있어요. 아니요, 프라이버시
얘기가 아닙니다. 잘못 구현되거나
잘못 사용되면 실제로 우리를
훨씬 비효율적으로 만들 수도 있거든요. Anthropic이
Claude용으로 출시했는데 메모리
기능을 사용하려면 설정으로 가서
활성화해야 하는데, 지금은
Max 플랜 사용자만 이용할 수 있습니다.
대화 기본설정이라고 불리며
검색 및 참조 채팅을 켜면 됩니다.
기본적으로 작동 방식은
자신에 대한 것이나
과거 대화에 대해 물어보면
그것을 기억해낼 수 있습니다.
"어떤 안경을 쓰고 있나요?"라고
말해볼 수 있고 기억하는지 봅시다.
관련 채팅을 찾고 있습니다.
이전 대화를 바탕으로
레이밴 메타 안경을 가지고 계시나요?
제가 원래
레이밴 메타 사이즈 50을 가지고 있었는데
너무 작아서 레이밴 메타 사이즈 53을
주문했다는 것을 기억하고 있습니다. 이 큰 것들이죠.
처방 렌즈를 받았다는 것도 기억하고
블랙프라이데이에 이것들을 샀다고 했어요.
반년 넘게 된 대화를
이야기하고 있는 거죠.
이 기능이 아직 베타 버전이지만
정말 마음에 드는
두 가지 구현 사항이 있습니다.
하나는 가시성을 제공한다는 것입니다.
관련 채팅을 참조할 때
알려주고 웹에서는
해당 대화로
클릭해서 들어갈 수도 있어요.
어떤 면에서는 기능 안의 기능으로
Claude 검색을 개선하고 이전 채팅에서
찾고 있는 것을 정확히
찾을 수 있게 도와줍니다.
제게 빠진 주요 기능은
여기 아래 검색 및 도구
버튼에서 켜고 끌 수 있었으면 좋겠다는 것입니다.
MCP 서버에 있긴 하지만
확장 사고처럼
쉽게 켜고 끌 수 있는 설정이어야 한다고 생각합니다.
문서를 살펴보던 중에 흥미로운 점을 발견했는데
여기서 흥미로운 점은 Claude가
실제로 무엇을 볼 수 있는지입니다. Claude에게
이러한 경계 내에서 대화를 검색하도록
프롬프트할 수 있습니다. 프로젝트 외부의 모든 채팅이나
개별 프로젝트
대화들을 말이죠. 검색은
각 특정 프로젝트 내에서 제한됩니다. 이는
정말 멋진 사용 사례라고 생각하고
ChatGPT와 비슷한 면에서
ChatGPT는 한동안 메모리 기능을 가지고 있었지만
ChatGPT는 두 가지 다른 유형의 메모리를 가지고 있습니다.
개인화 설정으로 들어가면
저장된 메모리를 참조할 수 있는데, 이는
Claude와 Gemini가 방금 획득한 기능이거나
메모리를 관리할 수 있습니다. 여기서 당신에 대해
항상 알고 있을 특정 메모리를
추가하거나 삭제할 수 있습니다. 그리고 저는
아직 Gemini 버전에 액세스하지 못했습니다.
솔직히 말해서 Gemini에
돈을 지불하지 않기 때문입니다. 하지만
관계없이 모든 사람에게 제공될 것이라고 생각합니다.
오늘 2.5 Pro 사용자들에게 출시되고 있습니다. 그리고 그들은 이미
이 기능이 내장되어 있습니다. 따라서
민감한 정보를 저장하고 싶지 않다면
임시 채팅을 켤 수 있는데, 이는
시크릿 모드와 같은 것입니다. 이것이 다른 점입니다. 저는
ChatGPT를 사용하고, Claude를 사용하고,
Gemini를 사용하고, 때때로 Meta AI도 사용합니다.
그리고 기본적으로 우리의
메모리가 분리되어 있습니다. 모두
별도로 저장되고 있습니다. 그리고
메모리를 공유할 수 있다면 실제로
정말 유용할 것입니다. 그것이
제가 MCP를 좋아하는 또 다른 이유입니다. 왜냐하면 MCP가
모든 회사에서 완전히 채택되면
우리는 자체 도구를 연결할 수 있게 될 것이고
이 경우에는 자체 메모리를 연결할 수 있게 됩니다. 저는
한동안 기본 메모리를 사용해 왔습니다.
이것이 제가 계속 사용하고 있는 것입니다.
제가 좋아하는 점은 메모리를
마크다운 파일로 저장하고 그러면
기본적으로 직접 편집할 수 있다는 것입니다.
정말 쉽습니다. 그래서 저는 메모리를 편집하고 관리합니다.
Obsidian으로 말이죠. 그리고
MCP를 통해 메모리를 사용하는 이점은
설정에 들어가서 그냥
켜고 끌 수 있다는 것입니다. 기본 메모리에는
노트 삭제, 노트 읽기,
컨텍스트 구축, 캔버스, 목록 등
디렉토리, 노트 이동, 동기화 상태, 메모리 프로젝트 목록과 같은
다양한 도구들이 있습니다. 여기에는 정말 많은 도구들이
있고 계속 개선되고 있습니다. 그런데
Claude 데스크톱에 연결했고
Claude 코드에 연결했고, Cursor에 연결했고,
Gemini에 연결했고,
kirao.dev에 연결했습니다. MCP로
작업하는 거의 모든 곳에서 기본 메모리를
연결할 수 있습니다. 그래서
Claude 데스크톱으로 구축할
무언가에 대해 이야기하고 있습니다. 그러면
Claude 코드나 Cursor에서 구축하거나
둘 다에서 구축할 때, 둘 다
같은 메모리 뱅크에 액세스하고
메모리에 저장된 내용을 바탕으로
제 진행 상황을 볼 수 있습니다. 그리고 이것이
이러한 앱에 내장된 네이티브 메모리와의
차별화 요소입니다. 하지만 대부분의
모바일 클라이언트는 MCP 지원이 없습니다.
적어도 로컬 MCP 지원, 표준 IO는 없습니다.
그래서 제 휴대폰은 기본
메모리에 액세스할 수 없습니다. 그것이
MCP 기반 메모리 사용의 한 가지 단점입니다. 하지만 분명히
컴퓨터에서 작업할 때는 ChatGPT를 통한
네이티브 내장 메모리 사용을 매우 기꺼이 할 것입니다.
Claude, Gemini 등에서 말이죠. 자, 이제 이런
내장된 메모리 기능들과
MCP 구현들, 그리고 그것들의
장점들에 대해 얘기했지만, 실제로는
양날의 검이에요. 이것에는
다른 면도 있고, 모든 것이
컨텍스트와 관련이 있습니다. 그럼
컨텍스트에 대해 설명해드릴게요. 메모리는
제 생각에는 AGI에 도달하기 위한
핵심 구성 요소 중 하나입니다. ChatGPT나
Claude에서 AGI를 구현할 수 있다는 건 아니에요.
여기서 얘기하는 메모리와 AGI를 위한
메모리는 서로 다른 유형의 메모리지만,
이것은 거대한 첫걸음입니다. AGI에 도달하려면
단기 메모리 한계를
극복해야 하기 때문이죠. 그리고 우리는
이 채널에서 이것에 대해 많이 얘기했어요,
컨텍스트 윈도우의 한계에 대해서요.
컨텍스트 윈도우는 본질적으로
주어진 채팅의 단기 메모리입니다. 채팅이
길어질수록 컨텍스트 윈도우는
작아지고 본질적으로 더 둔해지고
효율성이 떨어집니다. 그리고 지난 1년 동안
여러 AI 회사들이 점점 더 큰
컨텍스트 윈도우를 가진
모델들을 출시했습니다. Gemini는 이제
100만 토큰 컨텍스트 윈도우를 가지고 있어요. Claude Forset도
API에서 100만 토큰
컨텍스트 윈도우를 가지고 있습니다. ChatGPT-5는
현재 40만 토큰 컨텍스트 윈도우를
가지고 있는 것 같아요. 그래서 컨텍스트 윈도우가
커질수록, 그 문제를 어느 정도
해결하는 것처럼 보이죠. 적어도
그렇게 생각할 수 있을 거예요. 하지만 밝혀진 바로는, 더 긴
단기 메모리, 더 큰 컨텍스트 윈도우를
제공한다고 해서 실제로는 그렇게
좋은 성능을 보이지 않아요. 그리고 여기서
컨텍스트 엔지니어링이라는 용어가
정말 중요해집니다. 본질적으로 컨텍스트
엔지니어링은 컨텍스트를 신중하게 관리하는 것입니다.
많은 컨텍스트를 보유할 수 있다고 해서
모든 컨텍스트를 사용해야 한다는 건 아니에요.
매우 선택적이어야 합니다
왜냐하면 컨텍스트는 LLM에서 가장
중요한 요소이기 때문입니다. 그리고 제가 말하고자 하는 바는
이제 ChatGPT, Claude, Gemini가
과거 대화를 볼 수 있다는 것은 훌륭하지만,
그 과거 대화들과 발견한 모든 것이
컨텍스트에 입력됩니다. 그래서 한편으로는
이것이 매우 유익합니다. 이것은 정말 멋져요.
저도 기대하고 있어요. 하지만 다른 한편으로는,
이것이 본질적으로 하는 일은 우리의
컨텍스트를 오염시키는 것입니다. 컨텍스트는 다시 말하지만
대화 내의 모든 것을 의미합니다. 당신의
프롬프트뿐만 아니라
AI의 응답도 컨텍스트로 계산됩니다.
거기에 추가하는 모든 것이
컨텍스트로도 추가됩니다. 만약 당신이
환각을 경험한 적이 있다면,
때때로 그것들은 컨텍스트 슬롭 때문에
발생합니다. 이는 본질적으로 너무 많은 컨텍스트,
너무 많은 일이 일어나는 것입니다. 좋은 컨텍스트와
나쁜 컨텍스트를 구별하는 방법을
모르게 됩니다. 이것은 AI를 혼란스럽게 하거나
당신이 잘못된 말을 하거나 AI가
잘못된 가정을 했을 수 있습니다.
대화의 매 턴마다 모든 컨텍스트가
다시 추가됩니다. 그래서 본질적으로 우리는
이것을 복합시키고 있고 그것이
채팅을 오염시킬 수 있습니다. 그리고
본질적으로 모든 과거 채팅이
잠재적인 컨텍스트가 되면, 상황이 복잡해질 수 있어요.
그래서 제가 여기서 말하고자 하는 바는
메모리는 훌륭하지만, 그것을 제어할 수 있어야 한다는 것입니다
제어할 수 있어야 한다는 점이죠. 자신만의
기억을 관리할 수 있다면 정말 좋지 않을까요?
모든 걸 잊고 일론 머스크가
테슬라를 설립했다고 정말로 믿을 수 있다면 말이죠.
안타깝게도 이런 기억들은
우리 뇌에 하드코딩되어 있습니다.
하지만 AI에게는
그럴 필요가 없죠. AI가 기억을 갖는 것은
매우 유익할 수 있지만, 과거의 맥락이
우리 대화를 오염시키는 건 원하지 않습니다.
특히 AI를 사용해서
중요한 결정을 내리거나
업무에 활용할 때는 더욱 그렇습니다.
그래서 다시 MCP로 구현한
메모리 방식으로 돌아가는 거죠.
여기서는 조금 더 많은 제어권을 갖습니다.
기억을 편집할 수 있고, 매번
설정으로 돌아갈 필요 없이
클릭 한 번으로 켜고 끌 수 있습니다.
그리고 가까운 미래에는
이를 우리가 사용하는 모든 다양한 LLM들,
일상적으로 사용하는 모든 다양한 AI들에
연결할 수 있을 것입니다.
우리가 제어하고 플러그 앤 플레이할 수 있는
통합 메모리 말이죠. 그리고
그게 핵심이라고 생각합니다. 메모리에 대한
제 생각은 그렇습니다. 전반적으로
정말 기대됩니다. 이건 엄청난 진전이라고
생각하거든요. 다만 가까운 미래에
Anthropic에서 메모리를 켜고 끄는 방법에 대해
더 세밀한 제어 기능을 추가해서
설정에서 완전히 끄는 것뿐만 아니라
더 많은 옵션을 제공했으면 합니다.
더 나아가 우리 AI 플랫폼들 간에
기억을 공유할 수 있게 되기를 바랍니다.
최선의 시나리오는 ChatGPT, Gemini, 심지어 Claude까지도
로컬로 호스팅되는 MCP 서버를
모바일에서도 지원해서
메모리에 대한 더 많은 제어권과
이식성을 갖게 되는 것입니다.
여러분이 이 영상에서 통찰을 얻거나
무언가를 배웠기를 바랍니다.
피드백이 있으시면 아래 댓글로 남겨주세요. 시청해주셔서 감사하고 좋은 하루 되세요.