Letta(旧MemGPT)でメモリ付きAIエージェントを作る:個人開発でのパーソナルAI構築ガイド

Uncategorized

Letta(旧MemGPT)でメモリ付きAIエージェントを作る:個人開発でのパーソナルAI構築ガイド

「ChatGPTって会話をまたいで覚えてくれないよな……」と思ったことはないですか?毎回コンテキストを貼り直すの、地味にしんどい。

そのしんどさを解決するのが Letta(旧MemGPT)です。会話をまたいで記憶が続くAIエージェントをセルフホストで作れるOSSで、先週あたりからまたGitHubのトレンドに上がってきています。スター数は現在 13,000超

僕も個人プロジェクトで「自分専用のAIアシスタント」を作りたくて試してみたんですが、想像以上に柔軟で、ちゃんと「記憶する」AIが作れました。今回はその手順を丸ごとシェアします。


Lettaとは何をしてくれるのか(3行まとめ)

細かい説明の前に、結論から言います。

  • LLM(GPT-4oやClaude等)に長期記憶を持たせられる
  • 会話履歴・ユーザー情報・カスタム情報を永続化できる
  • REST APIとPython SDKで自分のアプリに組み込める

もともと「MemGPT」として論文発表されたプロジェクトで、2024年に「Letta」にリブランドされました。コアのアイデアは「OSのメモリ管理をLLMに応用する」という発想で、インコンテキスト(短期)とアーカイブ(長期)をエージェントが自律的に使い分けます。

副業エンジニア的な視点で言うと、「自分専用のコンテキスト付きアシスタント」や「ユーザーを覚えてくれるチャットボット」を作るときに刺さります。


インストールと初期セットアップ

Dockerを使うのが一番楽です。5分あれば動きます。

コメント

タイトルとURLをコピーしました