Letta(旧MemGPT)でメモリ付きAIエージェントを作る:個人開発でのパーソナルAI構築ガイド
「ChatGPTって会話をまたいで覚えてくれないよな……」と思ったことはないですか?毎回コンテキストを貼り直すの、地味にしんどい。
そのしんどさを解決するのが Letta(旧MemGPT)です。会話をまたいで記憶が続くAIエージェントをセルフホストで作れるOSSで、先週あたりからまたGitHubのトレンドに上がってきています。スター数は現在 13,000超。
僕も個人プロジェクトで「自分専用のAIアシスタント」を作りたくて試してみたんですが、想像以上に柔軟で、ちゃんと「記憶する」AIが作れました。今回はその手順を丸ごとシェアします。
Lettaとは何をしてくれるのか(3行まとめ)
細かい説明の前に、結論から言います。
- LLM(GPT-4oやClaude等)に長期記憶を持たせられる
- 会話履歴・ユーザー情報・カスタム情報を永続化できる
- REST APIとPython SDKで自分のアプリに組み込める
もともと「MemGPT」として論文発表されたプロジェクトで、2024年に「Letta」にリブランドされました。コアのアイデアは「OSのメモリ管理をLLMに応用する」という発想で、インコンテキスト(短期)とアーカイブ(長期)をエージェントが自律的に使い分けます。
副業エンジニア的な視点で言うと、「自分専用のコンテキスト付きアシスタント」や「ユーザーを覚えてくれるチャットボット」を作るときに刺さります。
インストールと初期セットアップ
Dockerを使うのが一番楽です。5分あれば動きます。


コメント