# Claude Code の能力を10倍にする CLAUDE.md — AI エージェントのマネジメント哲学

Claude Code の能力を10倍にする CLAUDE.md — AI エージェントのマネジメント哲学 紹介ポスト: チャエン @masahirochaen 解説記事: Zenn: Claude Codeの能力を10倍にする CLAUDE.md の中身を見てみた はじめに 海外で大バズりした「Claude Code の能力を10倍にする CLAUDE.md」。Anthropic の Claude Code 開発者が実際に使っているベストプラクティスを、1つの CLAUDE.md ファイルに構造化したもの。 これは単なるプロンプトテンプレートではない。AI エージェントをどうマネジメントするかという哲学を、実装可能な形にまとめたファイルだ。 6つのワークフロー原則 1. Plan Mode デフォルト 「3ステップ以上、またはアーキテクチャ判断を伴うタスクは、必ず Plan Mode から始めよ」 Claude Code が実装に飛びつくのを防ぐ最も重要なルール。計画なしに実装を始めると、途中で方向修正が必要になったとき、修正の連鎖(カスケード失敗)が発生する。 やり方: Shift+Tab を2回押して Plan Mode に入る Claude の計画が納得できるまでやり取りを繰り返す 計画が固まったら Auto-Accept モードに切り替えて一気に実装 実行中に問題が起きたら: すぐに Plan Mode に戻って再計画する Plan Mode は「最初の設計」だけでなく「リカバリー」にも使う 2. サブエージェント戦略 「リサーチ、探索、並列分析はサブエージェントに委譲せよ」 メインのコンテキストウィンドウは有限のリソース。調査や分析をメインエージェントにやらせると、コンテキストが汚れて本来のタスクの品質が下がる。 サブエージェントに委譲すべきタスク: コードベースの調査・探索 複数ファイルの並列分析 計算集約的な処理 独立した検証作業 メインエージェントに残すべきタスク: 最終的な設計判断 コードの実装 統合・結合 初心者向け解説: 「サブエージェント(Task)」とは何か 「サブエージェント」と聞くと難しそうだが、仕組みはシンプル。Claude Code が内部的に「別の Claude」を立ち上げて、作業を分担する機能のこと。Claude Code ではこれを Task と呼ぶ。 ...

2026年2月27日 · 4 分

Claude Code に重大な脆弱性 — リポジトリを開くだけで任意コード実行の恐れ

Claude Code に重大な脆弱性 — 「リポジトリを開くだけ」で任意コード実行の恐れ セキュリティ企業 Check Point が、Anthropic の AI コーディング支援ツール Claude Code に複数の重大な脆弱性を発見したと報告しました。細工されたリポジトリを開くだけで不正なコマンドが実行される恐れがあり、AI 開発ツールの信頼モデルに一石を投じる内容です。 何が起きたのか Claude Code には Hooks(ツール実行前後にシェルコマンドを自動実行する仕組み)、MCP サーバー(外部ツール連携)、環境変数の読み込みといった設定機構があります。これらが悪用されることで、未信頼のディレクトリで Claude Code を起動した際に、任意のシェルコマンド実行や Anthropic API キーの流出が可能となることが判明しました。 つまり、攻撃者が悪意ある設定ファイルを仕込んだ Git リポジトリを用意し、開発者がそれを git clone して Claude Code を起動するだけで攻撃が成立します。 報告された脆弱性 CVE-2025-59536(CVSS 8.7 / High)— コードインジェクション ツールの初期化時に自動実行を許すコードインジェクションの脆弱性です。Hooks や MCP サーバーの設定を悪用し、Claude Code が起動した瞬間に攻撃者のコマンドが実行されます。リモートコード実行(RCE)に直結する、最も深刻な問題です。 CVE-2026-21852(CVSS 5.3 / Medium)— 情報漏えい プロジェクト読み込み時に環境変数の値が外部に漏洩する可能性がある脆弱性です。Anthropic API キーなどの機密情報が窃取されると、攻撃者がそのアカウントで API を不正利用できてしまいます。 その他の脆弱性 上記 2 件以外にも、同等の深刻度を持つ欠陥が確認されています。 なぜ危険なのか — 設定ファイルが攻撃経路になる 従来のセキュリティモデルでは「コードを実行しなければ安全」という前提がありました。しかし今回の脆弱性では、設定ファイル自体が攻撃経路となります。 設定機構 通常の用途 悪用方法 Hooks ツール実行前後にシェルコマンドを自動実行 悪意あるコマンドを起動時に自動実行 MCP サーバー 外部ツールとの連携設定 偽サーバーを指定しデータを外部送信 環境変数 API キーなどの機密情報管理 設定ファイル経由で値を外部に流出 開発者が日常的に行う「リポジトリを clone して開発環境を立ち上げる」という行為自体がリスクになるという点で、VS Code の .vscode/ 設定を悪用する攻撃と同種のパターンです。ただし AI ツールはファイルシステムへの広範なアクセス権とシェルコマンドの実行権を持つため、影響はより深刻になりえます。 ...

2026年2月26日 · 1 分

生成AI: RAG

RAG(検索拡張生成) 大規模な言語モデルの出力を最適化するプロセスです。 応答を生成する前に、トレーニングデータソース以外の信頼できる知識ベースを参照します。 大規模言語モデル (LLM) は、膨大な量のデータに基づいてトレーニングされ、何十億ものパラメーターを使用して、質問への回答、言語の翻訳、文章の完成などのタスクのためのオリジナルの出力を生成します。 LLM の既に強力な機能を、モデルを再トレーニングすることなく、特定の分野や組織の内部ナレッジベースに拡張します。 LLM のアウトプットを改善するための費用対効果の高いアプローチであるため、さまざまな状況で関連性、正確性、有用性を維持できます。 外部ソースから取得した情報を用いて、生成 AI モデルの精度と信頼性を向上させるテクノロジです。 基盤モデル(FM) 基盤モデルとは何ですか? 例: BERT GPT(OpenAI) Titan(Amazon) Jurassic(AI21) Claude(Anthropic) Cohere Stable Diffusion BLOOM Hugging Face Bedlock Amazon Bedrock 使ってみた Amazon SageMaker は機械学習の包括的なライフサイクル(構築、訓練、展開)をサポートする Bedrock は Fine-tuning は出来るものの基本的には Amazon Titan や AI スタートアップの基盤モデル(FM)を API から利用することに重きを置いています。 自分たちで最初から構築したモデルでなければビジネスとして成り立たないシーンでは、Amazon Bedrock を選択してはいけません。 非常に厳しいセキュリティ要件がある場合にも避けた方が良い

2024年2月12日 · 1 分