Google Always-On Memory Agent:AIに考える脳を与える
はじめに
AIアシスタントを使ったことがあれば、こんな悩みがあるはずです:
今日プロジェクトAの進捗を話したのに、明日「昨日何を話したっけ」と聞くと、彼女は茫然としています。ドキュメントを書いてもらって、2日後に聞き直すと、あなたの文体もプロジェクトの背景も完全に忘れています。
あなたのAIアシスタントは毎日が新しい日——彼女は何も覚えていないのです。
これはバグではなく、設計上の欠陥です。真の記憶は保存ではなく、理解・接続・統合なのです。
Googleは最近、この問題を解決しようとするプロジェクトをオープンソース化しました——Always-On Memory Agentです。
既存ソリューションの困境
AIに記憶を持たせることは、多くの人が取り組んでいますが、現在のソリューションにはいくつか問題があります:
方案一:ベクトルデータベース + RAG
情報をベクトル化して保存し、クエリ時に関連コンテンツを検索します。
問題:あまりにも受動的。情報はそこに横たわっているだけで、システムはそれらの関係を能動的に考えず、新しい洞察も発見しません。図書館に本を積み上げるが、整理分類は誰もしないようなものです。
方案二:対話の要約
毎回の会話後にAIに要点を要約させます。
問題:詳細が失われます。要約ほど圧縮されれば、情報は少なくなります。しかも異なる対話間に関連性がありません。日記の要約だけを記録し、10年後に振り返っても「今日は楽しかった」しか覚えていないようなものです。
方案三:知識グラフ
情報を大きなネットワークとして描き、エンティティ間を関係で接続します。
問題:高すぎます。構築とメンテナンスに大量のリソースが必要で、複雑になりすぎて管理不能になるリスクがあります。
真の問題
これらのソリューションは保存しか行っておらず、統合は行っていません。
人間の脳はそうではありません。私たちが眠るとき、脳は日中の経験を再生し、新しい知識と古い知識をつなぎ、重要なものを残し、重複するものを圧縮します。
Always-On Memory Agentとは?
これはGoogleがオープンソース化したプロジェクトで、核となるアイデアは:AIに人間の脳のように、バックグラウンドで継続的に情報を処理・統合・接続させることです。
ベクトルデータベースも、複雑なembeddingも不要。軽量なLLMが、ひたすら読み・考え・書くだけです。
三段階のアーキテクチャ
第一歩:摂取(Ingest)
27種類のフォーマットをサポート:テキスト、画像、オーディオ、ビデオ、PDF…
システムは自動的に構造化情報を抽出します:
- 要約は何ですか?
- どのエンティティが言及されていますか?
- どのテーマに属していますか?
- 重要度はどのくらいですか?
情報の入力方法:
- ファイル監視:
./inboxフォルダに入れると、5-10秒で自動処理 - Webアップロード:Streamlitインターフェース
- HTTP API:コードからPOST
第二歩:統合(Consolidate)
これがシステム全体で最も人間の脳に似ている部分です。
デフォルトで30分ごとに、システムは「統合」タスクを実行します。この期間に収集された記憶を取り出し、それらの関係を見つけ、あなたが気づいていない洞察を発見します。
例えば、こんな4つの記憶があるとします:
- 「AIエージェントの成長は速いが、信頼性が課題」
- 「Q1の優先事項:推論コストを40%削減」
- 「既存のLLM記憶ソリューションには欠陥がある」
- 「スマートインボックスのアイデア:メールに永続的なAI記憶を追加」
システムは以下を発見します:
- 記憶1と3の関連:エージェントの信頼性問題は、本質的に記憶アーキテクチャの問題
- 記憶2と1の関連:コスト削減なしにエージェントの大規模展開は不可能
- 記憶3と4の関連:スマートインボックスは再構築型記憶のアプリケーション
そして洞察を提供します:
「次世代AIツールのボトルネックは、静的なRAGから動的な記憶システムへの移行です。」
この「接続」能力は、ベクトルデータベースにはできません——あれは類似度マッチングのみで、意味理解や推論は行いません。
第三歩:クエリ(Query)
何でも聞いてください。
システムはすべての記憶と統合洞察を読み込み、包括的な答えを導き出します。各見解には出典が注記されます。
例えば「何に注力すべきですか?」と聞くと:
あなたの記憶に基づくと、以下を優先することをお勧めします:
- 3月15日までにAPIをリリース 【出典:記憶2】
- エージェントの信頼性問題【出典:記憶1】は、再構築型記憶ソリューション【出典:記憶3】で解決可能
- スマートインボックスのコンセプト【出典:記憶4】は、市場が永続的なAI記憶を求めていることを実証
出典付きの回答により、AIがでっち上げていないこと、すべての発言に根拠があることを確認できます。
なぜ軽量モデルを選ぶのか?
このシステムは24時間運行します。コストと速度が知能より重要です。
- 速い:レイテンシが低く、継続的なバックグラウンド実行に適している
- 安い:1回の呼び出しコストが極めて低く、24/7運行してもコストはかからない
- 十分:構造の抽出、関係の発見、答えの統合——これらはすべて実行可能
技術スタック:Google ADK + Gemini 3.1 Flash-Lite + SQLite + Streamlit
クイックスタート
git clone https://github.com/Shubhamsaboo/always-on-memory-agent.git
cd always-on-memory-agent
pip install -r requirements.txt
export GOOGLE_API_KEY="your-gemini-api-key"
python agent.py
システムは以下を行います:
./inbox/フォルダを監視し、新しいファイルを自動処理- 30分ごとに記憶を統合
- http://localhost:8888 でクエリサービスを提供
GUI:
streamlit run dashboard.py
その価値はどこにあるのか?
ほとんどのAIツールは「ワンタイム」です:あなたが聞き、彼女が答え、それで忘れられます。
しかし、真に価値ある情報は、しばしば断片的な対話やドキュメントに潜んでいます。AIがこれらの断片を覚え、それらの関係を能動的に発見できれば、その価値は「質問に答える」だけでなく——洞察を発見することになります。
このプロジェクトが行ったことは:静的な知識ベースを、考える記憶システムに変えることです。
あなたの脳がハードディスクではなく、絶えず情報を整理するプロセッサであるように。
真の知能は、すべてを覚えることではなく、何が重要か、そしてなぜ重要かを知ることです。
リンク
- 🐙 GitHub: https://github.com/Shubhamsaboo/always-on-memory-agent
- 📄 ライセンス: MIT
- 🔧 技術スタック: Google ADK + Gemini 3.1 Flash-Lite + SQLite + Streamlit
この記事は注目に値するAI記憶技術を記録したものです。OpenClawなどのプラットフォームの記憶機能が継続的に進化する中、このようなソリューションのアイデアは参考に値します。