Exa for Claude — Web・論文・企業情報を標準検索より高速・高精度に扱う MCP プラグイン

Claude に本格的な検索能力を付与する MCP サーバー「Exa for Claude」が注目を集めている。Web 検索・ドキュメント・企業/人物情報など多様なソースに対応し、標準の web_search より高速・高精度とされる。Claude Desktop や Claude Code を使う開発者向けに、導入手順と活用例をまとめる。 Exa とは Exa は「将来の検索」を構築するために設立された AI 研究ラボで、ニューラル検索エンジンを提供している。キーワードマッチングではなく意味的類似性を軸にした検索で、AI エージェントが使うことを前提に設計されている。 exa-labs/exa-mcp-server(GitHub スター 4,300 超)として OSS 公開されており、Claude・Cursor・VS Code などの MCP 対応ツールから利用できる。 提供される検索ツール Exa MCP サーバーが提供する主なツールは以下の通り。 ツール 状態 用途 web_search_exa 現行 リアルタイム Web 検索 web_search_advanced_exa 現行 高度な Web 検索(カテゴリ・日付範囲・ドメイン指定など) company_research_exa Deprecated 企業サイトをクロールして詳細情報を取得 linkedin_search_exa Deprecated LinkedIn での企業・人物検索 people_search_exa Deprecated 人物情報検索 crawling_exa Deprecated 指定 URL からコンテンツを抽出(→ web_fetch_exa へ移行) get_code_context_exa Deprecated コードコンテキストの取得(→ web_search_exa へ移行) deep_researcher_start / deep_researcher_check Deprecated 非同期ディープリサーチ web_search_advanced_exa では category パラメータで論文・ニュース・コードなど用途別に絞り込める。Deprecated ツールは現在も動作するが、将来的に web_search_advanced_exa に統合される方向で整理が進んでいる。 ...

2026年4月25日 · 2 分

AIが自分で調べ方を選ぶRAG — モデル推論能力でスケールする新手法

社内資料をRAGで検索しているのに「欲しい情報に限って見つけてくれない」「関係ない文書ばかり読んで的外れな回答をする」という経験はないでしょうか。AIDB が紹介する新しいRAG手法は、検索方法そのものをモデル自身に判断させるというアプローチで、この問題に正面から取り組んでいます。 従来RAGの限界:一本調子の検索 従来のRAGはシンプルです。あらかじめ決まった方法(主にベクトル類似度検索)で文書チャンクを引っ張ってきて、まとめてLLMに渡す。検索がハズれたら、その時点でもう正解にはたどり着けません。 どんなに優れたモデルを使っても、読む資料がズレていれば回答の質は上がりません。問題は「LLMの能力」ではなく「検索戦略の固定化」にあります。 3つの検索戦略を状況に応じて使い分ける この新手法では、モデルが以下の3つの検索戦略から最適なものを選択し、必要に応じて組み合わせます。 検索戦略 特徴 向いているケース キーワード検索 特定の語句・コードをピンポイントで探す 固有名詞、型番、コマンドなどを調べるとき 意味検索(セマンティック検索) 意味的に近い文書を探す 概念的な質問、言い換えが多い文書を扱うとき チャンク全文読み 対象範囲を丸ごと読み込む 文脈が重要な長文、前後関係が必要なとき 重要なのは、どの順番で、どの検索を使うかをモデル自身が推論して決定する点です。固定のパイプラインではなく、質問の性質や文書の構造に合わせて動的に戦略を切り替えます。 なぜこれが機能するのか 読み込むテキスト量は同等以下 従来のRAGと比較して、読み込むテキストの量は同等かそれ以下です。にもかかわらず、回答精度は大きく向上します。これはトークン数の節約にもつながります。 モデル進化と共にスケールする構造 この手法の特筆すべき点はモデルの推論能力と性能が比例することです。モデルの推論能力が高いほど、「どの検索を、どの順番で使うか」という判断精度が上がり、RAG全体の性能が向上します。 つまり、将来より優れたモデルが登場すれば、RAGのフレームワーク自体を改修しなくても自然に性能が底上げされます。 実装への示唆 この手法を自社のRAGシステムに取り入れる場合、以下の点が設計のポイントになります。 1. 検索ツールの整備 モデルが選択できるよう、複数の検索エンドポイントを用意する必要があります。BM25(キーワード)、ベクトルDB(意味)、ドキュメント取得(全文)の3種を揃えるのが基本構成です。 2. ツール呼び出し(Function Calling)の活用 OpenAI / Anthropic / Google などの主要LLMはFunction Callingをサポートしています。検索戦略の選択をFunction Callingで実装することで、モデルが自律的に検索を制御できます。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 tools = [ { "name": "keyword_search", "description": "固有名詞・型番・コマンドなど特定のキーワードで文書を検索する", "parameters": {"query": "string"} }, { "name": "semantic_search", "description": "意味・概念の近さで関連文書を検索する", "parameters": {"query": "string"} }, { "name": "read_document", "description": "指定した文書チャンクを全文読み込む", "parameters": {"document_id": "string"} } ] 3. 推論能力の高いモデルを選ぶ ...

2026年3月17日 · 1 分