Anthropic の AI コーディングツール「Claude Code」の思考能力が密かに大幅削減されたのではないか——2026年4月、AMD の AI ディレクターによるセッションログの詳細分析が SNS 上で大きな議論を巻き起こしました。本記事では、何が起きたのか、Anthropic はどう説明しているのか、そしてユーザーが取れる対策を整理します。
発端:7,000セッションのログ分析 AMD シニア AI ディレクターの Stella Laurenzo 氏(GitHub: stellaraccident)が、2026年4月2日に GitHub Issue(anthropics/claude-code#42796)を投稿しました。同氏は2026年1月から3月にかけての Claude Code セッションログ(約6,852セッション、234,760ツールコール、17,871思考ブロック)を分析し、以下の変化を報告しています。
指標 変更前(1月末〜2月中旬) 変更後(3月8日〜23日) 思考の中央値(文字数) 約2,200文字 約600文字(67%減) 読み取り/編集比率 6.6回 2.0回 APIリクエスト数 ベースライン 80倍増(2月→3月) 「続けますか?」と確認する回数 0回 17日間で173回 推論中の自己矛盾 ベースライン 3倍 特に「reads-per-edit」(コードを編集する前にファイルを読む回数)が 6.6 から 2.0 に低下した点は深刻です。モデルがコードを十分に理解しないまま編集を行うようになったことを示唆しています。
Anthropic の公式説明 Anthropic は2つの意図的な変更を認めました。
1. アダプティブ・シンキング(Adaptive Thinking)の導入 2026年2月9日に導入。タスクの複雑さに応じてモデルが動的に思考の深さを決定する機能です。簡単な質問には短い思考で、複雑なタスクには長い思考で対応することで、レイテンシとコストを最適化する狙いがあります。
2. デフォルトのエフォートレベル変更 2026年3月3日に、Claude Code のデフォルトエフォート設定が「high」から「medium」に変更されました。これにより、明示的に設定を変更していないユーザーは、以前より浅い思考で応答を受け取るようになりました。
思考リダクション(redact-thinking)について 2026年2月12日に導入された redact-thinking ヘッダーについても懸念が広がりましたが、Claude Code の開発者である Boris Cherny 氏は、これは UI 上で思考内容を非表示にするだけであり、モデルの推論深度自体は削減していないと説明しています。一方で、Cherny 氏はアダプティブ・シンキングが「特定のターンで推論を過少割り当てしていた」ことも認めています。さらに「ハルシネーション(存在しないコミット SHA やパッケージ名の捏造)が発生したターンでは推論が一切出力されていなかった」とも述べています。
...