詳しく学ぶ · Discord に参加 · デモ
📄 Mem0 のトークン効率的なメモリアルゴリズムのベンチマーク →
| ベンチマーク | 旧 | 新 | トークン | レイテンシ p50 |
|---|---|---|---|---|
| LoCoMo | 71.4 | 91.6 | 7.0K | 0.88s |
| LongMemEval | 67.8 | 93.4 | 6.8K | 1.09s |
| BEAM (1M) | — | 64.1 | 6.7K | 1.00s |
| BEAM (10M) | — | 48.6 | 6.9K | 1.05s |
すべてのベンチマークは同じ本番環境を想定したモデルスタック上で実行されます。シングルパス検索(1 回の呼び出し、エージェンティックループなし)です。
変わったこと:
- シングルパス ADD のみの抽出 -- 1 回の LLM 呼び出しで、UPDATE/DELETE はありません。メモリは蓄積され、上書きされません。
- エージェント生成ファクトは一級市民です -- エージェントがアクションを確認するとき、その情報は同等の重みで保存されるようになりました。
- エンティティ リンキング -- エンティティは抽出、埋め込まれ、検索ブーストのためにメモリ全体でリンクされます。
- マルチシグナル検索 -- セマンティック、BM25 キーワード、エンティティマッチングが並列でスコアリングおよび統合されます。
移行ガイドを参照してアップグレード手順を確認してください。評価フレームワークはオープンソース化されているため、誰でも数値を再現できます。
- LoCoMo で 91.6 -- 前のアルゴリズムより +20 ポイント
- LongMemEval で 93.4 -- +26 ポイント、アシスタントメモリ リコール で +53.6
- BEAM (1M) で 64.1 -- 100万トークンでの本番規模メモリ評価
- フルペーパーを読む
Mem0(「メム・ゼロ」)は、インテリジェントなメモリレイヤーで AI アシスタントとエージェントを強化し、パーソナライズされた AI インタラクションを可能にします。ユーザーの好みを記憶し、個々のニーズに適応し、時間とともに継続的に学習します。カスタマーサポート チャットボット、AI アシスタント、自律システムに最適です。
コア機能:
- マルチレベル メモリ:ユーザー、セッション、エージェント状態を適応的なパーソナライゼーションでシームレスに保持します
- 開発者フレンドリー:直感的な API、クロスプラットフォーム SDK、フル マネージド サービス オプション
応用:
- AI アシスタント:一貫性のある、コンテキスト豊富な会話
- カスタマーサポート:過去のチケットとユーザー履歴を思い出して、カスタマイズされたサポートを提供
- ヘルスケア:患者の好みと履歴を追跡して、パーソナライズされたケアを提供
- 生産性とゲーム:ユーザー行動に基づいた適応型ワークフローと環境
| ライブラリ | セルフホステッド サーバー | クラウド プラットフォーム | |
|---|---|---|---|
| 最適用途 | テスト、プロトタイピング | 自社インフラストラクチャで実行するチーム | ゼロオプス本番運用 |
| セットアップ | pip install mem0ai |
docker compose up |
app.mem0.ai でサインアップ |
| ダッシュボード | -- | あり | あり |
| 認証と API キー | -- | あり | あり |
| 高度な機能 | -- | プレビュー | すべて含まれる |
テストだけですか?ライブラリを使用してください。チーム向けですか?セルフホスト。ゼロオプスが必要ですか?クラウド。
pip install mem0aiBM25 キーワードマッチングとエンティティ抽出を備えたハイブリッド検索を強化するには、NLP サポート付きでインストールしてください。
pip install mem0ai[nlp]
python -m spacy download en_core_web_smnpm を使用して SDK をインストールしてください。
npm install mem0ai注意: セルフホスト認証はデフォルトで有効です。認証前のビルドからアップグレードしていますか?
ADMIN_API_KEYを設定するか、ウィザードを使用して管理者を登録するか、ローカル開発のみの場合はAUTH_DISABLED=trueを設定してください。アップグレード ノート を参照してください。
# Recommended: one command — start the stack, create an admin, issue the first API key.
cd server && make bootstrap
# Manual: start the stack and finish setup via the browser wizard.
cd server && docker compose up -d # http://localhost:3000セルフホスト ドキュメント で構成を確認してください。
- Mem0 プラットフォーム にサインアップしてください
- SDK または API キーを使用してメモリ レイヤーを埋め込みます
ターミナルからメモリを管理してください。
npm install -g @mem0/cli # or: pip install mem0-cli
mem0 init
mem0 add "Prefers dark mode and vim keybindings" --user-id alice
mem0 search "What does Alice prefer?" --user-id alice完全なコマンド リファレンスについては、CLI ドキュメント を参照してください。
AI コーディング アシスタント (Claude Code、Codex、Cursor、Windsurf、OpenCode、OpenClaw、スキル標準をサポートするその他のツール) に Mem0 でビルドする方法を教えてください。2 つのカテゴリがあります。
参考スキル — 常に有効 (SDK 知識がアシスタントのコンテキストに読み込まれています):
npx skills add https://github.com/mem0ai/mem0 --skill mem0
npx skills add https://github.com/mem0ai/mem0 --skill mem0-cli
npx skills add https://github.com/mem0ai/mem0 --skill mem0-vercel-ai-sdkパイプライン スキル — オンデマンド実行 (既存のリポジトリでエンドツーエンドのワークフローを実行):
npx skills add https://github.com/mem0ai/mem0 --skill mem0-integrate
npx skills add https://github.com/mem0ai/mem0 --skill mem0-test-integration/mem0-integrate を使用して Mem0 をテストファースト パイプライン経由で既存のリポジトリに統合し、/mem0-test-integration を使用して確認してください。詳細については、スキル カタログ または Mem0 を使用した Vibecoding を参照してください。
Mem0 は機能するために LLM が必要で、デフォルトは OpenAI の gpt-5-mini です。ただし、様々な LLM に対応しており、詳細は Supported LLMs ドキュメントを参照してください。
Mem0 はデフォルトの埋め込みモデルとして OpenAI の text-embedding-3-small を使用します。ハイブリッド検索(セマンティック + キーワード + エンティティブースティング)で最良の結果を得るには、少なくとも Qwen 600M または同等の埋め込みモデルの使用をお勧めします。設定の詳細については Supported Embeddings を参照してください。
最初のステップはメモリをインスタンス化することです:
from openai import OpenAI
from mem0 import Memory
openai_client = OpenAI()
memory = Memory()
def chat_with_memories(message: str, user_id: str = "default_user") -> str:
# Retrieve relevant memories
relevant_memories = memory.search(query=message, filters={"user_id": user_id}, top_k=3)
memories_str = "\n".join(f"- {entry['memory']}" for entry in relevant_memories["results"])
# Generate Assistant response
system_prompt = f"You are a helpful AI. Answer the question based on query and memories.\nUser Memories:\n{memories_str}"
messages = [{"role": "system", "content": system_prompt}, {"role": "user", "content": message}]
response = openai_client.chat.completions.create(model="gpt-5-mini", messages=messages)
assistant_response = response.choices[0].message.content
# Create new memories from the conversation
messages.append({"role": "assistant", "content": assistant_response})
memory.add(messages, user_id=user_id)
return assistant_response
def main():
print("Chat with AI (type 'exit' to quit)")
while True:
user_input = input("You: ").strip()
if user_input.lower() == 'exit':
print("Goodbye!")
break
print(f"AI: {chat_with_memories(user_input)}")
if __name__ == "__main__":
main()詳細な統合手順については、Quickstart と API Reference を参照してください。
- ChatGPT with Memory: Mem0 によって提供される個人化されたチャット (Live Demo)
- Browser Extension: ChatGPT、Perplexity、Claude 全体でメモリを保存 (Chrome Extension)
- Langgraph Support: Langgraph + Mem0 でカスタマーボットを構築 (Guide)
- CrewAI Integration: Mem0 で CrewAI の出力をカスタマイズ (Example)
- 完全なドキュメント: https://docs.mem0.ai
- コミュニティ: Discord · X (旧 Twitter)
- お問い合わせ: founders@mem0.ai
引用可能なペーパーが公開されました:
@article{mem0,
title={Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory},
author={Chhikara, Prateek and Khant, Dev and Aryan, Saket and Singh, Taranjeet and Yadav, Deshraj},
journal={arXiv preprint arXiv:2504.19413},
year={2025}
}Apache 2.0 — 詳細は LICENSE ファイルをご確認ください。