核心的結論
AIコーディングツールの分野は微妙な転換点を経験している。すべての製品がモデルの知能を競争しているとき、開発者コミュニティではまったく異なる不満が広がり始めている:
基本的な生産性は満たされた今、人を崩壊させる根本原因はモデルが愚かなのではなく、セッションを開くたびに記憶喪失になることだ。
この一文は、2026年のAIエージェント実用化が直面する最も核心的なボトルネックを突いている。
三重の記憶喪失困境
1. 設定ファイルの物理的限界
AGENTS.md、CLAUDE.md、.github/copilot-instructions——これらはエージェントがドメイン知識を取得する主要なチャネルだ。しかし、それらの容量には限りがある。
数十万行のコード、数十のマイクロサービス、複雑なビジネスロジック、技術的負債の歴史をメンテナンスしているとき……これらの知識の総量は百万トークンを超える可能性がある。どんな設定ファイルもこれほど多くのものを詰め込むことはできない。
2. RAGは「未知の未知」を見つけられない
RAGは確かにエージェントが既存のドキュメントを検索するのを助ける。しかし、致命的な盲点がある:
RAGは「未知の未知(unknown unknowns)」を検索できない。
新人が入社して2週間のペアプログラミングで内在化するドメイン知識は、ドキュメントに書かれたルールだけではない。書き記されていない経験的判断も含まれる:
- あるモジュールが当初なぜプランAを選び、プランBを選ばなかったのか
- どの極端な情況下でAPIの戻りデータフォーマットが変異するか
- どのテストケースは一見冗長に見えるが、実はバグを踏んだ後に追加されたものか
これらの暗黙的知識に対して、RAGは無力だ。
3. Skillsのメンテナンスに吐き気がする
知識注入の問題を解決するために、開発者は手動でSkillsファイルをメンテナンスし始めた。しかし結果は:
Skillsのメンテナンスに吐き気がする。
コードは変わり、ビジネスは変わり、アーキテクチャは変わる。毎回の変化はSkillsファイルの同期更新を必要とし、これは重いメンテナンス作業になってしまう。
比較:人間の新人はどう学ぶか
会社で、新人は2週間のペアプログラミングでドメイン知識を内在化できる。このプロセスにはいくつかの重要な特徴がある:
- 漸進的学習:すべての知識を一度に注入するのではなく、実際の仕事を通じて徐々に蓄積する
- 文脈的理解:具体的なタスクの中でなぜこのようにするのかを理解し、ルールを暗記するのではない
- 双方向フィードバック:間違えた後に即時修正され、より正確なメンタルモデルを形成する
- 暗黙的伝達:ベテランの働き方を観察することで、ドキュメントにないものを学ぶ
現在のAIエージェントシステムでこのプロセスを真にシミュレーションできるものはほとんどない。
ブレークスルーの方向
漸進的文脈ロード
すべての知識を一度に注入しようとするのではなく、エージェントがプロジェクトのインタラクションを通じて徐々にドメイン理解を構築できるようにする。Hermes AgentのMemory Wiki、OpenClawのFollow-up Commitmentsメカニズムはこの方向を探求している。
暗黙的知識の自動キャプチャ
エージェントが自分の推論過程、失敗経験、修正パスを自動的に記録し、後続のセッションでこれらの記録を参照できれば、「デジタル徒弟」の学習モードを形成できる。
ドメイン知識グラフ
プロジェクトのアーキテクチャ決定、依存関係、ビジネスルールを照会可能な知識グラフとして整理することは、純テキストのAGENTS.mdよりも柔軟でメンテナンスしやすい。
アクション提案
- すべての知識を1つのファイルに詰め込もうとしない:階層管理——核心ルールはAGENTS.mdに、プロジェクトレベルの文脈はRAGに、歴史決定記録は知識グラフに
- エージェントにCode Reviewに参加させる:PRディスカッションとコード変更を読むことで、エージェントはプロジェクトの暗黙的知識を自動的に学習できる
- セッション永続化を活用する:Hermes AgentのProfiles機能は、異なるプロジェクトのために独立した文脈状態を保存でき、毎回ゼロから始めることを避ける
文脈永続化は贅沢品ではなく、AIエージェントが玩具からツールになるための唯一の道だ。この問題を最初に解決した者が、エージェントインフラ競争で先機を占めることができる。