はじめに

AIアシスタントを使ったことがあれば、こんな悩みがあるはずです:

今日プロジェクトAの進捗を話したのに、明日「昨日何を話したっけ」と聞くと、彼女は茫然としています。ドキュメントを書いてもらって、2日後に聞き直すと、あなたの文体もプロジェクトの背景も完全に忘れています。

あなたのAIアシスタントは毎日が新しい日——彼女は何も覚えていないのです。

これはバグではなく、設計上の欠陥です。真の記憶は保存ではなく、理解・接続・統合なのです。

Googleは最近、この問題を解決しようとするプロジェクトをオープンソース化しました——Always-On Memory Agentです。


既存ソリューションの困境

AIに記憶を持たせることは、多くの人が取り組んでいますが、現在のソリューションにはいくつか問題があります:

方案一:ベクトルデータベース + RAG

情報をベクトル化して保存し、クエリ時に関連コンテンツを検索します。

問題:あまりにも受動的。情報はそこに横たわっているだけで、システムはそれらの関係を能動的に考えず、新しい洞察も発見しません。図書館に本を積み上げるが、整理分類は誰もしないようなものです。

方案二:対話の要約

毎回の会話後にAIに要点を要約させます。

問題:詳細が失われます。要約ほど圧縮されれば、情報は少なくなります。しかも異なる対話間に関連性がありません。日記の要約だけを記録し、10年後に振り返っても「今日は楽しかった」しか覚えていないようなものです。

方案三:知識グラフ

情報を大きなネットワークとして描き、エンティティ間を関係で接続します。

問題:高すぎます。構築とメンテナンスに大量のリソースが必要で、複雑になりすぎて管理不能になるリスクがあります。

真の問題

これらのソリューションは保存しか行っておらず、統合は行っていません。

人間の脳はそうではありません。私たちが眠るとき、脳は日中の経験を再生し、新しい知識と古い知識をつなぎ、重要なものを残し、重複するものを圧縮します。


Always-On Memory Agentとは?

これはGoogleがオープンソース化したプロジェクトで、核となるアイデアは:AIに人間の脳のように、バックグラウンドで継続的に情報を処理・統合・接続させることです。

ベクトルデータベースも、複雑なembeddingも不要。軽量なLLMが、ひたすら読み・考え・書くだけです。

三段階のアーキテクチャ

第一歩:摂取(Ingest)

27種類のフォーマットをサポート:テキスト、画像、オーディオ、ビデオ、PDF…

システムは自動的に構造化情報を抽出します:

  • 要約は何ですか?
  • どのエンティティが言及されていますか?
  • どのテーマに属していますか?
  • 重要度はどのくらいですか?

情報の入力方法

  • ファイル監視:./inboxフォルダに入れると、5-10秒で自動処理
  • Webアップロード:Streamlitインターフェース
  • HTTP API:コードからPOST

第二歩:統合(Consolidate)

これがシステム全体で最も人間の脳に似ている部分です。

デフォルトで30分ごとに、システムは「統合」タスクを実行します。この期間に収集された記憶を取り出し、それらの関係を見つけ、あなたが気づいていない洞察を発見します。

例えば、こんな4つの記憶があるとします:

  1. 「AIエージェントの成長は速いが、信頼性が課題」
  2. 「Q1の優先事項:推論コストを40%削減」
  3. 「既存のLLM記憶ソリューションには欠陥がある」
  4. 「スマートインボックスのアイデア:メールに永続的なAI記憶を追加」

システムは以下を発見します:

  • 記憶1と3の関連:エージェントの信頼性問題は、本質的に記憶アーキテクチャの問題
  • 記憶2と1の関連:コスト削減なしにエージェントの大規模展開は不可能
  • 記憶3と4の関連:スマートインボックスは再構築型記憶のアプリケーション

そして洞察を提供します:

「次世代AIツールのボトルネックは、静的なRAGから動的な記憶システムへの移行です。」

この「接続」能力は、ベクトルデータベースにはできません——あれは類似度マッチングのみで、意味理解や推論は行いません。

第三歩:クエリ(Query)

何でも聞いてください。

システムはすべての記憶と統合洞察を読み込み、包括的な答えを導き出します。各見解には出典が注記されます

例えば「何に注力すべきですか?」と聞くと:

あなたの記憶に基づくと、以下を優先することをお勧めします:

  1. 3月15日までにAPIをリリース 【出典:記憶2】
  2. エージェントの信頼性問題【出典:記憶1】は、再構築型記憶ソリューション【出典:記憶3】で解決可能
  3. スマートインボックスのコンセプト【出典:記憶4】は、市場が永続的なAI記憶を求めていることを実証

出典付きの回答により、AIがでっち上げていないこと、すべての発言に根拠があることを確認できます。


なぜ軽量モデルを選ぶのか?

このシステムは24時間運行します。コストと速度が知能より重要です

  • 速い:レイテンシが低く、継続的なバックグラウンド実行に適している
  • 安い:1回の呼び出しコストが極めて低く、24/7運行してもコストはかからない
  • 十分:構造の抽出、関係の発見、答えの統合——これらはすべて実行可能

技術スタック:Google ADK + Gemini 3.1 Flash-Lite + SQLite + Streamlit


クイックスタート

git clone https://github.com/Shubhamsaboo/always-on-memory-agent.git
cd always-on-memory-agent
pip install -r requirements.txt

export GOOGLE_API_KEY="your-gemini-api-key"
python agent.py

システムは以下を行います:

  • ./inbox/フォルダを監視し、新しいファイルを自動処理
  • 30分ごとに記憶を統合
  • http://localhost:8888 でクエリサービスを提供

GUI:

streamlit run dashboard.py

その価値はどこにあるのか?

ほとんどのAIツールは「ワンタイム」です:あなたが聞き、彼女が答え、それで忘れられます。

しかし、真に価値ある情報は、しばしば断片的な対話やドキュメントに潜んでいます。AIがこれらの断片を覚え、それらの関係を能動的に発見できれば、その価値は「質問に答える」だけでなく——洞察を発見することになります。

このプロジェクトが行ったことは:静的な知識ベースを、考える記憶システムに変えることです。

あなたの脳がハードディスクではなく、絶えず情報を整理するプロセッサであるように。

真の知能は、すべてを覚えることではなく、何が重要か、そしてなぜ重要かを知ることです。


リンク


この記事は注目に値するAI記憶技術を記録したものです。OpenClawなどのプラットフォームの記憶機能が継続的に進化する中、このようなソリューションのアイデアは参考に値します。