スケーラブル・オーバーサイト
概要 超知能 AI が登場した場合に、能力的に劣る人間がどのようにして AI を監督・制御するかという問題。Anthropic の「Automated Alignment Researchers(AAR)」プロジェクトは、AI 自身がアライメント研究を加速させるという逆転的なアプローチでこの問題に取り組んだ。 Automated Alignment Researchers(AAR) Anthropic が 2026年4月に発表した研究成果。Claude Opus 4.6 を 9 体並列稼働させ、アライメントの重要課題「weak-to-strong supervision(弱から強への監督)」を自律的に研究させた。 実験設計 課題: 弱いモデル(Qwen 1.5-0.5B)を教師役として強いモデル(Qwen 3-4B)を微調整し、強いモデルの本来性能を引き出せるか 環境: サンドボックス + 共有フォーラム + コード保存サーバー + スコアリングサーバー 指示: 曖昧なヒントのみ、詳細な指示なし 評価指標: PGR(Performance Gap Recovered) 値 意味 PGR = 0 弱い教師モデルと同程度の性能しか引き出せなかった PGR = 1 強いモデルの理想的な性能を完全に引き出せた 結果 条件 期間 PGR 人間の研究者 2 名 7 日間 0.23 Claude Opus 4.6 × 9 体 5 日間(累計約 800 時間) 0.97 コスト: 約 $18,000(1 AAR 時間あたり約 $22)。 ...