コンテキスト圧縮
概要 LLM のコンテキストウィンドウには上限がある。会話が長くなると古い情報を捨てるか圧縮する必要があり、その戦略設計は AI コーディングエージェントの中心課題。 Claude Code の5つの圧縮戦略 軽量な処理から順にカスケードとして適用される: Microcompact — 古いツール結果を時間ベースで消去(API 呼び出し不要) Context Collapse — 会話の部分範囲を要約で置換(直近の文脈は保持) Session Memory — 重要情報を別ファイルに永続化(/compact 手動実行時にも使用) Full Compact — 履歴全体を包括的に要約(auto-compact: 約33Kトークンのバッファ残し) PTL Truncation — 最も古いメッセージ群を切り落とす最終手段 カスケードの流れ ツール結果バジェッティング → Microcompact → Context Collapse → Full Compact → PTL Truncation 実用的な対策 タスクの区切りで /compact を手動実行する 圧縮で失われたくない情報は CLAUDE.md に記載する 異なるタスク間では /clear でリセットする 大きな出力はサブエージェントに委任する 関連ページ Claude Code — この圧縮戦略を実装しているツール LLM Wiki パターン — 知識の永続化という関連アプローチ ソース記事 Claude Code のコンテキスト圧縮戦略 — ソースコードから見える5つのアプローチ — 2026-04-02