Anything の Research Agents — 「コードを書く前に調べる」AI エージェントが Vibe Coding の次に来るもの
@sora19ai 氏のポストが、AI アプリビルダー Anything の新機能「Research Agents」を紹介しています。
AnythingがResearch Agentsをリリース
重要なポイント3つ: ・コードを書く前に並列エージェントがコードベースを調査 ・ファイル読み込み、パターン検索、依存関係トレースを自動化 ・ミスを大幅に削減
Anything 公式のポスト(いいね 1,093、ブックマーク 1,550)は、より明確にこの機能の意図を宣言しています。
Research Agents are live! Anything now sends parallel agents across your codebase before writing a single line of code — reading files, searching patterns, tracing dependencies, making NO mistakes. vibe coding is over.
「Vibe Coding は終わった」という挑発的な一文が目を引きます。本記事では、Research Agents が実装する「調査してから書く」アプローチの意味と、AI コーディングの次の段階を解説します。
Anything とは何か
AI アプリビルダーの概要
Anything(旧称 Create)は、自然言語でアプリを構築できる AI アプリビルダーです。
| 項目 | 内容 |
|---|---|
| 正式名称 | Anything(旧 Create) |
| URL | https://www.createanything.com/ |
| ユーザー数 | 70万人以上 |
| 資金調達 | 1,950万ドル |
| 対応プラットフォーム | iOS / Android(Expo)/ Web |
| 主な機能 | AI エージェントによるフルスタックアプリ開発 |
| 組み込み機能 | 決済(Stripe)、認証、DB、100以上のインテグレーション |
Anything の AI エージェントは、プロンプトを受け取ると以下のプロセスで動作します。
- 推論(Reasoning): リクエストをフロントエンド・バックエンド・データベースの各コンポーネントに分解
- 生成(Generation): React コードと PostgreSQL スキーマを生成
- エラー修正: コンパイル・ランタイム・ブラウザ・ネットワーク・デバイスのログを監視し、自動修正
内部テストでは、10万行以上のコードベースで 4 時間以上連続してビルドでき、自力で解決できないエラーに遭遇しなかったと報告されています。
Research Agents の位置づけ
Research Agents は、このエージェントの前段階に追加された新機能です。コードを生成する前に、複数のエージェントが並列でコードベースを調査します。
[従来のフロー]
プロンプト → 推論 → コード生成 → エラー修正
[Research Agents 追加後]
プロンプト → ★並列調査★ → 推論 → コード生成 → エラー修正
├── ファイル読み込み
├── パターン検索
└── 依存関係トレース
「調べてから書く」が解決する問題
AI コーディングの構造的な弱点
AI コーディングエージェントが犯すミスの多くは、コードベースへの理解不足に起因します。
| ミスの種類 | 原因 |
|---|---|
| 存在しない API やメソッドの呼び出し | コードベースの構造を把握していない |
| 既存パターンと矛盾するコード | プロジェクトの慣例を理解していない |
| 依存関係の破壊 | 変更の影響範囲を追跡していない |
| 重複コードの生成 | 既存の実装を知らない |
これらは全て、実装前の調査が不十分であることが根本原因です。
Research-Plan-Implement パターン
Advanced Context Engineering for Coding Agents が提唱する「Research-Plan-Implement」パターンは、この問題を体系的に解決するフレームワークです。
1. Research(調査)フェーズ
エージェントがコードベースを調査し、関連ファイル・情報フロー・問題の原因を把握します。このフェーズではコードを一切書かないことが重要です。
調査結果は要約され、メインエージェントのコンテキストに圧縮して渡されます。これにより、探索過程のノイズを排除し、本質的な情報だけを次のフェーズに引き継げます。
2. Plan(計画)フェーズ
調査結果に基づき、具体的な実装計画を策定します。どのファイルをどう変更するか、テストはどう書くかを明示します。
このフェーズの品質が最も重要です。ドキュメントの著者は「計画の1行の誤りが、数百行の悪いコードにつながる」と警告しています。
3. Implement(実装)フェーズ
計画に基づいてステップごとにコードを書きます。各ステップ完了時に人間がレビューし、正しいことを確認してから次に進みます。
なぜ「並列」調査が効果的なのか
Research Agents のもう一つの特徴は、調査を並列実行することです。
[逐次調査]
ファイル構造確認 → パターン検索 → 依存関係解析 → 調査完了
合計: 30秒
[並列調査(Research Agents)]
┌── ファイル構造確認 ──┐
├── パターン検索 ──┤── 調査完了
└── 依存関係解析 ──┘ 合計: 10秒
並列実行には速度以外のメリットもあります。各サブエージェントが独立したコンテキストウィンドウで動作するため、1つの調査タスクの情報が別の調査を汚染しません。調査結果はそれぞれ要約されてメインエージェントに戻るため、コンテキストの効率的な利用が可能です。
Claude Code の Agent Teams や VS Code のサブエージェントでも、同様の並列調査アプローチが採用されています。
「Vibe Coding は終わった」の意味
Vibe Coding とは
Vibe Coding は、Andrej Karpathy 氏が 2025 年初頭に提唱した概念です。「コードを一行ずつ書く」のではなく、「AI に指示を出してアプリを作る」というワークフローを指します。自然言語でやりたいことを伝え、AI がコードを生成し、エラーが出たらエラーメッセージを貼り付けて修正させる — という「ノリ(Vibe)」で開発するスタイルです。
なぜ Anything は「終わった」と言うのか
Anything が「Vibe Coding is over」と宣言した背景には、Vibe Coding の限界が見えてきたことがあります。
| Vibe Coding の特徴 | 限界 |
|---|---|
| 自然言語で指示 → AI が生成 | コードベースの文脈を理解せずに生成する |
| エラーが出たら貼り付けて修正 | 事後修正は前段の調査不足を補えない |
| 「ノリ」で進める | プロジェクトが大きくなると破綻する |
Research Agents は、この「ノリ」を構造化された調査プロセスに置き換えます。
[Vibe Coding]
「こういうの作って」→ AI が即座にコード生成 → エラー修正ループ
[Research-First Coding]
「こういうの作って」→ 並列調査 → 計画 → コード生成 → 検証
言い換えれば、「思いつきで書いて後で直す」から「調べてから書く」への転換です。
ただし「Vibe Coding の死」は誇張
「Vibe Coding は終わった」という表現は、マーケティング的な誇張を含んでいます。
実際には、以下のような棲み分けが現実的です。
| シナリオ | 最適なアプローチ |
|---|---|
| プロトタイプ・MVP | Vibe Coding(速度優先) |
| 既存の大規模コードベースへの機能追加 | Research-First(調査→計画→実装) |
| 新規の小規模プロジェクト | Vibe Coding + テスト駆動 |
| 本番環境のバグ修正 | Research-First(影響範囲の調査が必須) |
Vibe Coding は小規模・探索的な開発に依然として有効です。Research Agents が解決するのは、コードベースが大きくなったときの品質維持の問題です。
2026年のマルチエージェント調査トレンド
Research Agents は Anything 独自の機能ではなく、2026 年の AI コーディングツール全体のトレンドの一部です。
各ツールの「調査→実装」アプローチ
| ツール | 調査アプローチ |
|---|---|
| Anything | Research Agents(並列サブエージェントによるコードベース調査) |
| Claude Code | Agent Teams(Explore エージェントによる並列調査) |
| OpenAI Codex | 並列タスク実行(独立したサンドボックスで複数タスクを同時処理) |
| VS Code Copilot | サブエージェント(メインエージェントから独立した調査エージェントを起動) |
| Windsurf | 5 並列エージェント(コンテキスト分離による並列調査) |
共通するパターン
2026 年 2 月の Anthropic Agentic Coding Trends Report や Mike Mason 氏の分析から、以下の共通パターンが見えます。
- 調査と実装の分離: コードを書く前にコードベースを理解するフェーズを設ける
- 並列実行: 複数のサブエージェントが独立したコンテキストで同時に調査する
- コンテキスト圧縮: 調査結果を要約してメインエージェントに渡し、コンテキストウィンドウを効率的に使う
- 人間のレビューポイント: 調査結果と計画の段階で人間が確認する(実装後のコードレビューより効果的)
コンテキストエンジニアリングの重要性
Advanced Context Engineering の著者は、コンテキストの品質を以下の優先順位で管理すべきだと述べています。
- 正確性(Correctness): 不正確な情報が最悪のコンテキスト問題
- 完全性(Completeness): 情報の欠落が次に深刻
- サイズ(Size): ノイズの多さは相対的に軽微
Research Agents の本質は、この「正確で完全なコンテキストを効率的に収集する」プロセスの自動化です。コンテキスト利用率は 40〜60% に保つことで、複雑な推論に必要な余裕を確保することが推奨されています。
Claude Code で同じことはできるか
結論から言えば、Claude Code で十分に実現でき、むしろより柔軟に構成できます。Research Agents が行っている「並列調査→計画→実装」は、Claude Code の既存機能そのものです。
機能の対応関係
| Anything Research Agents | Claude Code の対応機能 |
|---|---|
| 並列エージェントによるコードベース調査 | Agent Teams / Explore サブエージェント |
| ファイル読み込み・パターン検索 | Glob, Grep, Read ツール(組み込み) |
| 依存関係トレース | Explore エージェント / feature-dev:code-explorer |
| 調査→計画→実装の分離 | Plan モード(/plan)+ Skills |
| 調査結果の要約・コンテキスト圧縮 | サブエージェントの自動コンパクション |
Claude Code が優れている点
| 観点 | 説明 |
|---|---|
| プログラマブル | CLAUDE.md や Skills で「調査→計画→実装」のワークフローを自分で定義・カスタマイズできる |
| デフォルトの挙動 | 複雑なタスクでは自動的に Explore エージェントを起動してコードベースを調査する |
| Git worktree 分離 | 複数エージェントがファイルシステムレベルで完全に分離される |
| ターミナルアクセス | テスト実行・ビルド・linter など実際の検証が可能 |
| MCP 連携 | 外部ツール(DB、API、CI/CD)と直接統合できる |
Anything が優れている点
| 観点 | 説明 |
|---|---|
| ノーコード | プログラミング知識なしでアプリを構築できる |
| オールインワン | 決済・認証・DB・ホスティング・App Store 申請まで一体化 |
| Research Agents の自動発動 | ユーザーが意識しなくても調査フェーズが自動的に実行される |
ターゲットの違いが本質
Anything は「コードを書かない人がアプリを作る」ためのツールです。Research Agents はその内部で自動的に動きます。Claude Code は「プログラマがコードを書く」ためのツールであり、同じパターンを意識的に設計して活用する形になります。
技術的には Claude Code の方が柔軟で強力ですが、Anything は非エンジニア向けにそれをパッケージ化しています。「Research Agents」という名前で新機能としてリリースされた内容は、Claude Code ユーザーにとっては日常的に使っている機能の組み合わせです。
まとめ
- Research Agents は「調べてから書く」の自動化: コードを書く前に並列エージェントがファイル読み込み・パターン検索・依存関係トレースを実行する
- Vibe Coding の限界を補完: 「ノリで書いて後で直す」から「調査→計画→実装」への構造的転換。ただし小規模開発では Vibe Coding も依然有効
- 2026 年のマルチエージェントトレンド: Anything だけでなく、Claude Code・Codex・VS Code Copilot・Windsurf が同様の並列調査アプローチを採用
- コンテキストエンジニアリングが鍵: 正確で完全なコンテキストを効率的に収集し、コンテキストウィンドウの 40〜60% に収めることが品質を決める
- 人間のレビューは上流に移動: コードレビューから計画レビューへ。「計画の1行の誤りが数百行の悪いコードにつながる」
- Research-Plan-Implement パターン: 調査・計画・実装を明確に分離し、各フェーズ間で人間が確認するワークフローが標準化しつつある
参考
- @sora19ai のポスト
- @anything のポスト(Research Agents リリース)
- Anything 公式サイト
- Anything Launch ブログ
- Advanced Context Engineering for Coding Agents - HumanLayer
- Why Does TDD Work So Well In AI-Assisted Programming? - Codemanship
- Claude Opus 4.6 Agent Teams - NxCode
- AI Coding Agents in 2026: Coherence Through Orchestration - Mike Mason
- Coding Agents in Feb 2026 - calv.info
- Your Home for Multi-Agent Development - VS Code
- 2026 Agentic Coding Trends Report - Anthropic