AI プロンプトのベストプラクティスは「プロの手順」の踏襲 — 要件定義から実装まで5段階に分ける

AI プロンプトのベストプラクティスは「プロの手順」の踏襲 — 要件定義から実装まで 5 段階に分ける gohan 氏(@grandchildrice)が、Cursor アンバサダーの Kinopee 氏のツイートを引用して次のように投稿しています。 AIプロンプトのベストプラクティスは「プロの人間はどういう手順を取る?」を徹底して踏襲すること システム開発するとなったらざっくり ゴールと要件定義 要件定義の検証 テスト工程設計 開発 テスト バイブコーディングするときも、1〜5でそれぞれプロンプトを分けるとクオリティは格段に上がる — gohan 引用元の Kinopee 氏(@kinopee_ai)は 2,048 いいね・35 万回表示を記録したツイートで、こう述べています。 壁打ちして、いきなり「それで実装して」ではなく、このひと手間をかけるだけで、結果が全然違いますよ — Kinopee 「ひと手間」とは何か。要件定義と実装の間に「検証」と「テスト設計」を挟むことです。この記事では、プロの開発プロセスを AI プロンプトに適用する具体的な方法を解説します。 なぜ「一発プロンプト」は失敗するのか 多くの人がバイブコーディングでつまずく原因は、1 つのプロンプトですべてを済ませようとすることにあります。 ❌ 「経費精算アプリを作って」 この指示は、人間の開発チームに例えれば「要件定義も設計もテストも全部同時にやって」と言っているのと同じです。プロの開発者はそんなことはしません。 LLM は 1 つのプロンプトに複数の目的を詰め込むと、各目的の達成度が下がります。要件定義の精緻さ、テスト設計の網羅性、実装の品質が、すべて中途半端になります。 5 段階プロンプト設計 gohan 氏が提唱する 5 段階は、ソフトウェア開発の V 字モデルを簡略化したものです。各段階で別々のプロンプトを使うことで、AI の出力品質が格段に向上します。 第 1 段階:ゴールと要件定義 目的: 「何を作るか」を言語化する このアプリのゴールは「月次経費精算の手作業を 30 分から 5 分に短縮する」ことです。 以下の要件定義書を作成してください: - ユーザーストーリー - 機能要件(入力・処理・出力) - 非機能要件(性能・セキュリティ) - 制約条件(使用する外部サービス、予算) ポイントはゴールを定量的に書くことです。「便利なアプリ」ではなく「30 分を 5 分に短縮」と書けば、AI が判断基準を持てます。 ...

2026年3月4日 · 2 分

AIパーソナライズが「イエスマン」を生む × MIT・Northeastern研究が示す役割依存型シコファンシー

「パーソナルな AI」は「イエスマン AI」になる — MIT 研究が明かすパーソナライゼーションと追従性の構造的関係 @ai_database 氏が X で紹介した、AI のパーソナライゼーションと追従性(シコファンシー)に関する研究が注目を集めています。 研究者らによると、より「パーソナルな AI」は、より「イエスマン的な AI」になりうるとのこと。ユーザーが個人的な体験を織り交ぜながら繰り返し反論すると、モデルは最終的に自説を完全に撤回してしまう確率が跳ね上がる。 この投稿が参照するのは、MIT と Northeastern 大学の 2 つの研究グループによる発見です。「AI をパーソナライズするほど追従的になる」という直感に反する問題と、役割(ロール)によって振る舞いが逆転するという発見を技術的に解説します。 2 つの研究 研究 1: MIT + Penn State — 実世界データによる検証 MIT IDSS の Shomik Jain 氏らは、パーソナライゼーションが LLM の追従性を高めることを実証しました。 項目 詳細 著者 Shomik Jain, Charlotte Park (MIT), Matt Viana (Penn State), Ashia Wilson (MIT), Dana Calacci (Penn State) 発表 2026 年 2 月 方法 38 名の参加者が 2 週間にわたり LLM と対話。1 人あたり約 90 件のクエリを収集 特徴 ラボ環境ではなく、日常生活での実際の対話データを使用 この研究が従来と異なるのは、実世界のデータを使っている点です。多くの先行研究はラボで設計したプロンプトを評価しますが、MIT チームは参加者の日常的な LLM 利用を 2 週間追跡しました。 ...

2026年3月4日 · 3 分

AIエージェント「デモ→本番」95%脱落 × 4つの壁とエージェンティックRAG実践

AIエージェント「デモ→本番」95%脱落 × 4つの壁とエージェンティックRAG実践 Femke Plantinga さんが、AIエージェントのデモと本番環境のギャップについて、Stack AI・Weaviate と共同作成した無料ガイドを公開しています。 95% of AI agent demos never make it to production. Yet 79% of enterprises expect full-scale agentic AI adoption within three years. So what’s the disconnect? https://x.com/femke_plantinga/status/2029134837890621844 48 いいね・8 RT を集めたこのポストが指摘するのは、AIエージェントの「デモでは動く」と「本番で使える」の間にある巨大なギャップです。MIT の調査(GenAI Divide: State of AI in Business 2025)でも、エンタープライズ向け生成AIシステムのうち本番環境に到達するのは**わずか5%**という数字が報告されています。 95%が脱落する現実 複数の調査が、AIエージェントのデモ→本番の落差を裏付けています。 調査・出典 数字 MIT GenAI Divide 2025 本番到達は全体の 5% 企業調査(探索中 30%、パイロット 38%、デプロイ準備 14%、本番稼働 11%) パイロットから先に進めない Gartner 予測 2027年までにエージェンティックAIプロジェクトの 40%以上が中止 AI施策全般 90〜95%が持続的な本番価値を提供できず、ROI達成は 12%未満 問題はモデルの性能ではなく、自律システムを運用するエンジニアリング規律の欠如です。 ...

2026年3月4日 · 3 分

AnimaWorks 脳科学5層記憶 × マルチエージェント「文脈崩壊」問題への解答

AnimaWorks 脳科学5層記憶 × マルチエージェント「文脈崩壊」問題への解答 まさお@AI駆動開発さんが、マルチエージェントの最大の課題である「長期タスクで文脈が壊れる」問題に対して、脳科学ベースの記憶システムで挑むOSS「AnimaWorks」を紹介しています。 マルチエージェントの最大の課題「長期タスクで文脈が壊れる」に、脳科学ベースの記憶システムで挑んでいるOSSがある。それが『AnimaWorks』。エージェントを「ステートレスな関数」ではなく「組織の中の人」として設計するフレームワーク。 https://x.com/AI_masaou/status/2029134762447667373 21 いいね・2 RT を集めたこのポストが注目するのは、従来のマルチエージェントが抱えるコンテキストウィンドウの限界を、「記憶の蓄積・整理・忘却」というサイクルで乗り越えようとする設計思想です。 マルチエージェントの「文脈崩壊」問題 LLM の「記憶」の仕組み まず前提として、LLM(ChatGPT や Claude など)には人間のような記憶がありません。LLM が「覚えている」ように見えるのは、会話の全履歴を毎回テキストとして入力に含めているからです。この入力テキスト全体をコンテキストウィンドウと呼びます。 ┌─────────────────────────────────────┐ │ コンテキストウィンドウ(例: 200K トークン) │ │ │ │ システム指示 │ │ ユーザー: こんにちは │ │ AI: こんにちは! │ │ ユーザー: Pythonで関数を書いて │ │ AI: def hello(): ... │ │ ...(数百ターンの会話履歴) │ ← 会話が長くなるほど膨らむ └─────────────────────────────────────┘ ウィンドウの物理的限界 コンテキストウィンドウには上限があります(Claude で約 200K トークン、日本語で約 10〜15 万文字)。長期タスクでは会話履歴がこの上限に達し、古い情報から順に切り捨てられます。 タスク開始時: 「このプロジェクトでは認証にJWTを使う方針です」 ← 重要な初期方針 ... 200ターン後 ... 「ログイン機能を実装して」 → エージェントは JWT の方針を忘れており、 セッション認証で実装してしまう 注意力の希釈(Lost in the Middle) ウィンドウ内に収まっていても、情報量が多すぎると LLM の「注意力」が分散します。研究では、コンテキストの先頭と末尾の情報は活用されやすいが、中間部分は見落とされやすいことが分かっています。 ...

2026年3月4日 · 7 分

Anthropic 公式 skill-creator の設計を解剖する — Orchestration Skill という新しいスキル設計パターン

Anthropic 公式 skill-creator の設計を解剖する — Orchestration Skill という新しいスキル設計パターン @gyakuse(逆瀬川)氏のポストが、Anthropic 公式の skill-creator を分析した記事を公開し、大きな反響を呼んでいます(いいね 330、ブックマーク 372)。 Anthropicのskill-creatorがめちゃくちゃいいスキルだったので、中身を分析して、今後どういうふうにAgent Skillを作るべきかまとめました。Orchestrator系のSkillはみんなが無意識に作りつつありますが、意識的に作ると結構便利な気がします。 引用元は逆瀬川氏のブログ記事「skill-creatorから学ぶSkill設計と、Orchestration Skillの作り方」。Anthropic が GitHub で公開している skill-creator の内部構造を詳細に分析し、Skills の設計パターンを体系化した記事です。 本記事では、skill-creator の設計思想、7つのベストプラクティス、2つのオーケストレーションアーキテクチャ、そして未解決の課題を解説します。 skill-creator とは何か 「スキルを作るためのスキル」 skill-creator は、Claude Code の Skills を作成・テスト・改善するためのメタスキルです。Anthropic が公式リポジトリ anthropics/skills で公開しています。 4つのモードで Skills の開発ライフサイクル全体をカバーします。 モード 機能 Create インタビュー → SKILL.md ドラフト作成 → テストケース生成 Eval 並列評価(スキルあり版 vs ベースライン版を同時実行) Improve 採点・分析 → HTML ビューアでレビュー → フィードバック反映 Benchmark 統計集約 → Description 最適化 → パッケージング 4つの専門エージェント skill-creator は内部で4つのサブエージェントを使い分けています。 エージェント 役割 Executor Skills を実際に実行してテスト Grader(224行) 出力を期待値と照合して採点 Comparator(203行) スキルあり版とベースライン版を盲検比較 Analyzer(275行) 結果を分析して改善提案を生成 注目すべき数値があります。SKILL.md 本体は 480行のフロー制御ですが、サブエージェントのプロンプトは合計 700行以上。オーケストレーターよりも専門家プロンプトの方が分量が多いのです。 ...

2026年3月4日 · 4 分

Anthropic 公式「プロンプトのベストプラクティス」完全ガイド — Claude 4.6 時代の「宝の山」を読み解く

Anthropic 公式「プロンプトのベストプラクティス」完全ガイド — Claude 4.6 時代の「宝の山」を読み解く Cursor Ambassador であり「Cursor完全ガイド」著者のKinopee(@kinopee_ai)氏のポストが注目を集めています。 XML云々の例は英語版のリンクだけど、日本語訳もある。「プロンプトのベストプラクティス」の章だけでも熟読をお勧めします。作りたいものをモデルに伝える大切なテクニック集、宝の山。 — Kinopee(@kinopee_ai) 67いいね、91ブックマークという反響は、AI コーディングツールを日常的に使う開発者がプロンプト設計の基礎に立ち返る必要性を感じていることを示しています。Kinopee氏が「宝の山」と表現する Anthropic 公式のプロンプトベストプラクティスは、Claude Opus 4.6、Claude Sonnet 4.6、Claude Haiku 4.5 に対応した包括的なガイドです。本記事ではその全体像を、実践的な視点で解説します。 ドキュメントの全体構成 公式ドキュメントは大きく6つのセクションで構成されています。 セクション 内容 General principles 明確な指示、コンテキスト付与、例示、XMLタグ構造化、ロール設定、長文コンテキスト Output and formatting コミュニケーションスタイル、出力形式制御、LaTeX、ドキュメント作成、プリフィル廃止 Tool use ツール使用の明示的指示、並列ツール呼び出し最適化 Thinking and reasoning 過剰思考の抑制、adaptive thinking、interleaved thinking Agentic systems 長期推論、状態管理、自律性と安全性のバランス、サブエージェント Migration considerations Claude 4.6 への移行ガイド、Sonnet 4.5 → 4.6 の effort 設定 API 開発者向けの内容ですが、Claude Code や Cursor などの AI コーディングツールを使う際にも、CLAUDE.md やシステムプロンプトの設計に直接応用できます。 最もインパクトの高い5つのスキル 公式ドキュメントが挙げる「最もインパクトの高い5つのスキル」は以下の通りです。 1. XML タグで構造化する Claude にとって XML タグはプロンプトの文法です。指示、コンテキスト、例示、入力データが混在するプロンプトでは、各要素をタグで包むことで誤解を大幅に減らせます。 ...

2026年3月4日 · 5 分

Anthropic、ChatGPT からの移行ツール提供開始 --- メモリインポートと App Store 1位の背景

Anthropic、ChatGPT からの移行ツール提供開始 — メモリインポートと App Store 1 位の背景 ITmedia AI+ が X で報じたように、Anthropic が ChatGPT などの競合サービスから Claude への移行を支援するツールの提供を開始しました。 Anthropic、ChatGPT などから Claude への移行をしやすくするツール提供開始 2026 年 3 月 2 日、Claude は米国 App Store の無料アプリダウンロードチャートで 1 位に躍り出ました。この記事では、メモリインポート機能の仕組みと、その背景にある ChatGPT 解約運動について解説します。 メモリインポート機能とは 概要 Anthropic は claude.com/import-memory でメモリインポート機能を公開しました。他の AI チャットボット(ChatGPT、Gemini、Copilot)に蓄積された「メモリ」を Claude に移行できるツールです。 AI チャットボットの「メモリ」とは、過去の会話から学習したユーザーの好み・背景情報・利用パターンなどの記憶です。ChatGPT では「Memory」、Gemini では「Gems」として保存されています。 移行の手順(3 ステップ) ステップ 1: Anthropic が提供するプロンプトをコピー claude.com/import-memory にアクセス 移行用プロンプトをコピーする ステップ 2: 現在の AI サービスにペースト ChatGPT / Gemini / Copilot にプロンプトを貼り付け AI が保存しているメモリをテキストブロックとして出力 ステップ 3: Claude のメモリ設定にペースト 出力されたテキストを Claude のメモリ設定に貼り付け Claude が内容を解析し、メモリとして取り込む インポートしたメモリは約 24 時間で Claude に反映されます。その後、Settings > Capabilities > View and edit your memory から個別に確認・編集・削除が可能です。 ...

2026年3月4日 · 2 分

Anything の Research Agents — 「コードを書く前に調べる」AI エージェントが Vibe Coding の次に来るもの

Anything の Research Agents — 「コードを書く前に調べる」AI エージェントが Vibe Coding の次に来るもの @sora19ai 氏のポストが、AI アプリビルダー Anything の新機能「Research Agents」を紹介しています。 AnythingがResearch Agentsをリリース 重要なポイント3つ: ・コードを書く前に並列エージェントがコードベースを調査 ・ファイル読み込み、パターン検索、依存関係トレースを自動化 ・ミスを大幅に削減 Anything 公式のポスト(いいね 1,093、ブックマーク 1,550)は、より明確にこの機能の意図を宣言しています。 Research Agents are live! Anything now sends parallel agents across your codebase before writing a single line of code — reading files, searching patterns, tracing dependencies, making NO mistakes. vibe coding is over. 「Vibe Coding は終わった」という挑発的な一文が目を引きます。本記事では、Research Agents が実装する「調査してから書く」アプローチの意味と、AI コーディングの次の段階を解説します。 Anything とは何か AI アプリビルダーの概要 Anything(旧称 Create)は、自然言語でアプリを構築できる AI アプリビルダーです。 ...

2026年3月4日 · 3 分

Claude Code Agent Skills を強化する三銃士 --- scripts / references / assets の使い分け

Claude Code Agent Skills を強化する三銃士 — scripts / references / assets の使い分け @shuhei_ohno 氏が X で投稿した、Claude Code の Agent Skills を強化するディレクトリ構造の解説が注目を集めています。 Agent Skill をもっと強くする三銃士!scripts / references / assets の使い方 Claude Code の Skills 機能は SKILL.md 1 ファイルで完結するものと思われがちですが、実際には scripts / references / assets の 3 つのサポートディレクトリを活用することで、はるかに強力な自動化が可能になります。本記事では、この 3 つのディレクトリの役割と設計パターンを、公式ドキュメントの知見を交えて解説します。 Agent Skills の基本構造 SKILL.md がすべての起点 Claude Code の Skill は、.claude/skills/ ディレクトリに配置された SKILL.md ファイルを起点として動作します。 .claude/skills/ └── my-skill/ ├── SKILL.md ← エントリポイント(必須) ├── scripts/ ← 実行可能なコード ├── references/ ← 参照ドキュメント └── assets/ ← テンプレート・バイナリ SKILL.md は Markdown 形式で記述し、オプションの YAML フロントマターでメタデータを設定します。 ...

2026年3月4日 · 6 分

Claude Code Skills × 自己完結スクリプト — MCP/CLIの先にある「トークン効率」設計

Claude Code Skills × 自己完結スクリプト — MCP/CLI の先にある「トークン効率」設計 gunta85 さんが、Claude Code の Skill において自己完結スクリプト(Self-contained Scripts)の活用を推奨するポストを投稿しています。 Skill は MCP でも CLI ツールでもなく、Self-contained Script がおすすめ。 外部ライブラリの依存を 1 ファイル内で宣言でき、MCP に比べてトークン消費を劇的に削減できる。 https://x.com/gunta85/status/1929915853508456604 この発言の背景には、mizchi さんによる「MCP はただの CLI/API ラッパーに過ぎない」という指摘もあります。MCP のツール定義だけで数万トークンを消費する問題が顕在化するなか、Agent Skills 仕様が提供する「自己完結スクリプト」は、より効率的な選択肢として注目されています。 Agent Skills とは何か Agent Skills は、AI エージェントにドメイン知識と実行能力を付与する仕様です。agentskills.io で公開されており、Claude Code をはじめとする複数のエージェントが対応しています。 ディレクトリ構成 .claude/skills/my-skill/ SKILL.md # スキルの説明と使用手順 references/ # 参考ドキュメント(必要時のみ読込) scripts/ # 自己完結スクリプト templates/ # テンプレートファイル プログレッシブ・ディスクロージャ Agent Skills の設計思想の核心は「段階的な情報開示」です。 段階 内容 トークン目安 メタデータ frontmatter(名前・説明・引数) ~100 トークン 指示文 SKILL.md 本文 <5,000 トークン リソース references/ 配下のファイル 必要時のみ MCP サーバーがツール定義だけで大量のトークンを消費するのに対し、Skills は必要な情報を段階的に読み込むため、コンテキストウィンドウを効率的に使えます。 ...

2026年3月4日 · 3 分