![[심층분석] 배우 밀라 요보비치가 만든 오픈소스 AI 기억 시스템, MemPalace는 어떻게 기존 유료 솔루션을 뛰어넘었나](/newsimg/T2kUQDdwklrfjMEo.png)
AI에게 기억력을 선물한 이상한 이름의 프로젝트
AI와 대화해본 적 있으시죠? ChatGPT든 Claude든, 한 가지 공통된 불만이 있어요. 대화가 끝나면 다 잊어버린다는 것. 어제 디버깅하면서 설명했던 프로젝트 구조, 지난주에 논의했던 아키텍처 결정, 한 달 전에 공유했던 코딩 컨벤션… 새 세션을 열면 모든 게 백지상태로 돌아가요. 마치 매일 첫 출근하는 동료와 일하는 기분이랄까요.
이 문제를 해결하려는 시도는 이미 많았어요. OpenAI의 Memory 기능, 다양한 유료 AI 메모리 솔루션들이 있었는데요. 그런데 최근 GitHub에 등장한 MemPalace라는 프로젝트가 완전히 다른 접근법으로 이 문제에 도전장을 내밀었어요. 더 놀라운 건, 이 프로젝트를 만든 사람의 GitHub 계정 이름이 'milla-jovovich'라는 거예요. 네, 영화 '레지던트 이블'의 그 배우 밀라 요보비치 맞아요.
유명인이 만들었다는 화제성을 걷어내고 봐도, MemPalace는 기술적으로 꽤 흥미로운 프로젝트예요. AI 메모리 성능을 측정하는 벤치마크인 LongMemEval에서 96.6%라는 점수를 기록했거든요. 이건 기존 유료 솔루션들을 크게 앞서는 수치인데요, 게다가 완전 무료 오픈소스라는 점이 개발자 커뮤니티를 들끓게 만들고 있어요.
오늘은 MemPalace가 정확히 어떤 기술이고, 왜 이렇게 높은 성능을 내는지, 그리고 우리가 실무에서 어떻게 활용할 수 있는지 깊이 들여다보려 해요.
핵심 기술 분석: "다 저장하고, 잘 찾게 만든다"
기존 AI 메모리의 문제
먼저 기존 AI 메모리 시스템이 어떻게 동작하는지 이해해야 해요. 대부분의 메모리 솔루션은 이런 방식이에요:
1. 사용자와 AI의 대화가 끝나면
2. AI가 대화 내용을 분석해서 "중요하다고 판단한 것"만 추출하고
3. 나머지는 버려요
예를 들어, 여러분이 AI와 "우리 프로젝트에서 PostgreSQL을 쓰는 이유"에 대해 30분 동안 깊이 있게 토론했다고 해볼게요. 기존 메모리 시스템은 이걸 "사용자는 PostgreSQL을 선호함" 한 줄로 요약해버려요. 왜 선호하는지, 어떤 대안을 검토했는지, 어떤 트레이드오프를 고려했는지—그 맥락이 전부 사라지는 거죠.
이게 뭐가 문제냐면요, 나중에 "데이터베이스를 MongoDB로 바꿀까?"라고 물었을 때 AI는 "사용자가 PostgreSQL을 좋아하니까 안 바꾸는 게 좋겠다" 정도밖에 답할 수 없어요. 그 당시에 논의했던 구체적인 이유나 조건을 모르니까요.
MemPalace의 접근: 기억의 궁전
MemPalace는 완전히 반대 철학을 택했어요. "AI가 뭐가 중요한지 판단하게 하지 말고, 전부 다 저장한 다음 잘 찾을 수 있게 구조화하자."
이름에서 눈치채셨을 수도 있는데, 이건 고대 그리스의 기억술 '기억의 궁전(Method of Loci)' 에서 영감을 받은 거예요. 이게 뭐냐면, 고대 그리스 연설가들이 긴 연설을 외울 때 쓰던 기법인데요—상상 속의 건물을 하나 만들고, 각 방에 기억할 내용을 배치하는 거예요. 연설할 때는 그 건물을 머릿속으로 걸어 다니면서 각 방에 뭘 넣었는지 떠올리는 방식이죠.
MemPalace는 이 개념을 AI 메모리에 그대로 적용했어요:
- Wing (날개/동): 사람이나 프로젝트 단위로 나뉘는 큰 구역이에요. "A 프로젝트", "B 클라이언트"처럼요.
- Hall (복도): 기억의 유형별 분류예요. "아키텍처 결정", "디버깅 히스토리", "코드 리뷰" 같은 카테고리라고 보면 돼요.
- Room (방): 구체적인 아이디어나 대화가 들어가는 공간이에요.
- 저장 용량: 모든 대화를 원문으로 저장하면 데이터가 빠르게 늘어나요. 개인 사용은 괜찮겠지만, 기업 환경에서 수백 명이 매일 쓴다면 스토리지 비용이 문제가 될 수 있어요.
- 검색 속도: 데이터가 많아질수록 시맨틱 검색 속도가 느려질 수 있어요. 이건 벡터 데이터베이스의 근본적인 한계이기도 하고요.
- 구조화의 한계: Wing-Hall-Room 구조가 우아하긴 하지만, 이 구조를 누가 설계하고 관리할 것인지의 문제가 있어요.
- 3개월 전에 AI와 논의했던 DB 스키마 설계 이유를 정확히 찾을 수 있고
- 지난달에 해결했던 버그의 디버깅 과정을 그대로 다시 볼 수 있고
- 프로젝트별로 AI와 나눈 모든 기술 결정을 체계적으로 관리할 수 있어요
- Python 환경: Python 3.x가 필요하고, 가상환경 설정이 가능한지 확인
- 저장 공간: 대화량에 따라 수 GB까지 늘어날 수 있으니 디스크 여유 확인
- 보안 정책: 로컬 실행이라 데이터 유출 걱정은 적지만, 사내 보안 정책과 충돌하지 않는지 확인
- 벤치마크 주의: 96.6%는 특정 벤치마크(LongMemEval) 기준이에요. 실제 사용 환경에서는 다를 수 있으니 직접 테스트해보는 게 중요해요
쉽게 비유하자면, 기존 시스템이 "모든 서류를 AI 비서에게 맡기고 중요한 것만 요약해달라"는 방식이라면, MemPalace는 "서류를 전부 보관하되, 아주 잘 정리된 서류 캐비닛에 넣는" 방식인 거예요.
기술 스택: ChromaDB와 시맨틱 검색
MemPalace의 저장소로는 ChromaDB를 사용해요. ChromaDB가 뭐냐면, 벡터 데이터베이스의 한 종류인데요—일반 데이터베이스가 텍스트를 그대로 저장하고 키워드로 검색한다면, 벡터 데이터베이스는 텍스트의 "의미"를 숫자 벡터로 변환해서 저장하고, 의미가 비슷한 것끼리 가까이 모아두는 거예요.
그래서 "PostgreSQL 성능 튜닝"이라고 검색하면, 정확히 그 단어가 들어간 대화뿐 아니라 "쿼리 최적화", "인덱스 설정", "EXPLAIN ANALYZE" 같은 연관 대화도 함께 찾아주는 거죠. 이런 걸 시맨틱 검색(의미 기반 검색) 이라고 해요.
핵심 포인트는 이거예요: MemPalace는 대화 원문을 요약 없이 그대로(raw verbatim) ChromaDB에 저장해요. LongMemEval 벤치마크에서 96.6%를 기록한 건 바로 이 원문 저장 모드 덕분이에요. 요약 과정에서 정보가 손실되지 않으니까, 나중에 검색할 때 훨씬 정확한 결과가 나오는 거죠.
AAAK: 실험적 압축 레이어
MemPalace에는 AAAK이라는 실험적 기능도 있어요. 이건 자주 반복되는 텍스트 패턴을 줄임말로 압축하는 일종의 "약어 방언"인데요. 모든 대화를 원문 그대로 저장하면 당연히 용량이 커지잖아요? AAAK은 이 문제를 해결하려는 시도예요.
재미있는 건, 이 압축된 텍스트를 별도의 디코더 없이도 Claude, GPT, Gemini, Llama 등 어떤 LLM이든 읽을 수 있다는 점이에요. 다만 솔직하게도, AAAK 모드에서는 벤치마크 점수가 84.2%로 떨어진다고 프로젝트 측에서 직접 밝히고 있어요. 아직 실험 단계라는 걸 숨기지 않는 점은 좋은 신호예요.
완전한 로컬 실행
MemPalace의 또 다른 큰 장점은 외부 API나 서비스 없이 완전히 로컬에서 돌아간다는 거예요. 요즘 데이터 프라이버시에 민감한 기업 환경에서 이건 정말 중요한 포인트인데요. 대화 내용이 외부 서버로 나가지 않으니까, 내부 프로젝트나 민감한 코드에 대한 대화도 안심하고 저장할 수 있어요.
업계 맥락과 비교: AI 메모리 전쟁의 현주소
기존 솔루션들과의 비교
현재 AI 메모리 시장의 주요 플레이어들을 비교해볼게요:
| | MemPalace | OpenAI Memory | Mem0 | Zep |
|---|---|---|---|---|
| 저장 방식 | 원문 전체 저장 | AI 요약 추출 | AI 요약 추출 | 하이브리드 |
| LongMemEval | 96.6% | 공개 미확인 | 다양 | 다양 |
| 비용 | 무료 | 유료 플랜 포함 | 유료 | 유료 |
| 실행 환경 | 로컬 | 클라우드 | 클라우드/로컬 | 클라우드/로컬 |
| 오픈소스 | O | X | 부분 | 부분 |
비유로 설명하자면요. 기존 솔루션들은 비서가 회의록을 듣고 핵심만 메모하는 것과 같아요. 빠르고 효율적이지만, 비서가 중요하다고 판단한 것만 남죠. MemPalace는 회의 전체를 녹음해서 잘 분류된 폴더에 넣어두는 것과 같아요. 용량은 더 들지만, 나중에 "그때 김 대리가 뭐라고 했더라?"고 찾을 때 정확한 답을 줄 수 있는 거예요.
트레이드오프: 공짜 점심은 없다
물론 MemPalace의 접근법에도 단점이 있어요:
이런 트레이드오프에도 불구하고 벤치마크 96.6%라는 숫자가 말해주는 건 분명해요: 맥락을 보존하는 것이 요약하는 것보다 더 정확한 기억을 만든다는 거죠.
커뮤니티의 시선
개발자 커뮤니티에서는 크게 두 가지 반응이 갈려요. 하나는 "원문 저장이라는 단순한 접근이 오히려 정답이었다"는 긍정적 반응이고, 다른 하나는 "실제 프로덕션 환경에서 스케일이 될까?"라는 현실적 의문이에요. 두 반응 모두 타당한데요, 결국 사용 규모와 목적에 따라 답이 달라지는 문제예요.
한국 개발자에게 주는 시사점
시나리오 1: 개인 개발 생산성 향상
혼자 사이드 프로젝트를 하면서 Claude나 ChatGPT를 많이 쓰는 분이라면, MemPalace가 게임체인저가 될 수 있어요. 예를 들어:
설치 자체도 간단해요. Python 환경에서 pyproject.toml 기반으로 관리되고 있고, uv 패키지 매니저를 지원하니까요. 지금 pip으로 패키지 관리하고 있다면, uv를 한번 써보는 것도 추천드려요.
시나리오 2: 팀 단위 지식 관리
스타트업이나 소규모 팀에서 AI를 활발히 활용하고 있다면, MemPalace의 Wing 구조가 유용할 수 있어요. 프로젝트별로 Wing을 나누고, 각 프로젝트의 아키텍처 결정, 코드 리뷰, 장애 대응 기록 등을 Hall로 분류하면—사실상 AI 기반 팀 위키가 되는 거죠.
특히 한국 스타트업에서 흔한 "그 결정 누가 왜 했더라?" 문제를 해결하는 데 도움이 돼요. ADR(Architecture Decision Record)을 따로 작성할 필요 없이, AI와의 대화 자체가 기록으로 남으니까요.
시나리오 3: AI 애플리케이션 개발
AI 서비스를 만들고 있는 개발자라면, MemPalace의 아키텍처를 참고해서 자체 메모리 시스템을 구축하는 데 활용할 수 있어요. 특히 ChromaDB + 시맨틱 검색 + 구조화된 네임스페이스라는 조합은 배울 점이 많아요.
도입 시 체크리스트
MemPalace를 실무에 도입하려면 아래 사항을 먼저 확인하세요:
마무리: "기억"의 패러다임이 바뀌고 있다
MemPalace가 던지는 근본적인 질문은 이거예요: "AI가 판단하는 요약"과 "인간이 구조화한 원문 보존" 중 어느 쪽이 더 나은 기억인가?
지금까지 업계의 주류는 전자였어요. 토큰 비용도 아끼고, 저장 공간도 절약되니까요. 하지만 MemPalace는 벤치마크 수치로 후자의 가능성을 보여줬어요. 물론 아직 초기 단계이고, AAAK 압축 같은 실험적 기능은 갈 길이 멀지만, 방향성 자체는 설득력이 있어요.
앞으로 AI 메모리 기술이 발전하면, 우리가 AI와 일하는 방식이 근본적으로 달라질 수 있어요. "매번 처음부터 설명하는" 비효율 대신, AI가 6개월 전 대화까지 기억하고 맥락을 이어가는 세상이 오는 거죠. MemPalace가 그 첫 번째 의미 있는 발걸음이 될지, 아니면 더 나은 솔루션의 마중물이 될지는 지켜봐야 해요.
한 가지 더. 할리우드 배우가 AI 오픈소스 프로젝트를 릴리즈하고, 그게 실제로 기술적 가치가 있다는 사실 자체가 시사하는 바가 있어요. AI 개발이 더 이상 전문 엔지니어만의 영역이 아니라는 신호이기도 하고, 다양한 배경의 사람들이 AI 생태계에 기여하기 시작했다는 증거이기도 해요.
여러분은 어떻게 생각하세요? AI와의 대화를 전부 기억하는 게 정말 필요한 걸까요? 아니면 잘 요약된 핵심만 있으면 충분할까요? 그리고 여러분은 지금 AI와의 대화 기록을 어떻게 관리하고 있나요? 댓글로 이야기 나눠봐요.
🔗 출처: Reddit
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공