Exa for Claude を Claude Code に繋ぐと、
Googleで1ページずつ目視で当たるしかなかった「人物・企業・論文・金融資料・個人ブログ・コード」の6カテゴリ検索が、
コマンド1本で意味検索できるようになります。
個人開発・副業のWeb調査用途なら、
無料枠は月1,000リクエストで足りるし、
本体は MIT ライセンス(誰でもソースコードを見られるOSS=オープンソースソフトウェア)の OSS なので、
概ね安全に使えます。
顧客名・社外秘・社内コード片を検索クエリに混ぜる業務利用だけは、
Zero Data Retention(ログを残さない契約)が Enterprise プラン限定なので、
私は止めておく派。
なお標準 web_search は150字スニペット返却、
Exa はページ本文をクリーン markdown で返すため、
両者は競合ではなく役割違いの道具です。
この記事はClaude Code を触ったことがあって、
ネット検索で限界を感じている人向け(CLI=コマンドライン操作の基本が分かれば読めます)。
そもそも Exa for Claude って何のこと?
Exa for Claude は、
Claude Code や claude.ai に「Exa(米サンフランシスコの検索エンジン会社)の検索エンジン」を後付けで繋ぐためのプラグインと MCP サーバーです。
MCP(AI にツールや情報源を繋ぐための共通規格、
Anthropic が提唱)経由で動くので、
Claude Code 側からは「外部の検索ツール」として見えます。
これが本体。
公式ページ https://exa.ai/claude はこう書いています。
Claude spawns parallel subagents that search from different angles, find the highest-signal sources, and compile the most useful answer.(出典: exa.ai/claude)
意訳すると「Claude が複数の小さなエージェントを同時に走らせて、
別々の角度から検索して、
一番役に立ちそうな情報を集めて返す」という仕掛け。
並列検索が売りです。
運営は Exa Labs Inc.(2021年設立、
2025年9月に Series B で 85M ドル調達、
評価額 700M ドル。
出典: exa.ai/blog/announcing-series-b)。
Cursor や Notion AI などの AI プロダクトが顧客に並んでいます。
つまり「Claude の中で検索エンジンを差し替える話」だと思えばだいたい合ってる。
ネット検索でいいじゃん、と思ったら見てほしい — Exa が役に立つ6つの使い道
「ブラウザでGoogle検索すれば済む話じゃないの?」というのが、
私が最初にぶつかった疑問です。
実際、
汎用的なWeb検索なら今もブラウザで十分。
Exa が効いてくるのは「Googleの検索窓に入れても1発で出てこない」種類のクエリです。
公式ドキュメント(exa.ai/docs/reference/search-api-guide)と GitHub の exa-mcp-server README(github.com/exa-labs/exa-mcp-server)にある6カテゴリで、
具体的なユースケースを並べます。
1. 人物検索 — 「NYで哲学ブログを書いたエンジニアを20人」みたいなクエリ
Exa の People カテゴリは、
1B+(10億超)の人物データを職歴・学歴・自己紹介付きで持っています(出典: exa.ai/docs/reference/search-api-guide)。
公式 about ページにこういう例が載っています。
Find every engineer in NYC who's written a blog post about philosophy(出典: exa.ai/about)
意訳すると「ニューヨークで働いてるエンジニアのうち、
哲学のブログを書いた人を全員出して」。
これGoogleでやろうとすると、
関連しそうなブログを1個ずつ目視で開くハメになる。
役に立つ場面はこのあたり。
- 採用候補・スカウト調査(職種+過去の発信トピックで絞り込み)
- 協業・コラボ相手探し(「○○分野で最近書いてる人」を抽出)
- 取材・インタビュー候補のロングリスト作成
「条件が複合してて、Googleでは検索ワードに分解できない」シーンが本命。
2. 企業発見 — 「米国のアグリテック企業を50社まとめて」
Company カテゴリは、
50M+(5,000万社超)の企業データに対して意味検索ができます(出典: exa.ai/docs/reference/search-api-guide)。
公式ガイドには、
こう叩く例が載ってます。
exa.search("agtech companies in the US", type="auto", category="company")(出典: exa.ai/docs/reference/search-api-guide)
役に立つ場面。
- 競合調査(「自社と似た事業をやってる会社」を網羅)
- 営業リードの一次リスト作成
- 市場マップ作成(「○○分野でアクティブな会社」を地図化)
顧客企業の Flatfile は「数百万円かけて組み立てていた企業リストを数ドルで実現できた」と公式の顧客事例ページに載せています(出典: exa.ai/customers)。
3. 学術論文 — arxiv 含む 100M+ 論文をフルテキストで
Research Paper カテゴリは、
arxiv のプレプリント含む 100M+(1億件超)の学術論文を全文インデックスから検索できます(出典: exa.ai/docs/reference/search-api-guide)。
Google Scholar でも論文は引けますが、
フルテキスト意味検索の精度は別軸の話。
役に立つ場面。
- ライティング素材の一次調査(「拡散モデルで音声生成した論文」をフルテキストで集める)
- 技術記事の引用候補集め
- 研究テーマの先行研究サーベイ
顧客企業の Anara は「期待する論文が正確に検索結果に表示される必要がある」とコメントを寄せています(出典: exa.ai/customers)。
4. 金融レポート・SECファイリング — 決算資料の特定箇所を引く
Financial Report カテゴリは、
企業の財務報告書や投資家向け資料を専用インデックスから取得できる仕組みです(出典: exa.ai/docs/reference/search-api-guide)。
役に立つ場面。
- 競合企業の決算資料から「特定事業の言及」だけ抽出
- 投資判断のための一次資料収集
- 業界レポート執筆時のファクトチェック
SECファイリング全文をブラウザで開いて Ctrl+F する作業が、
自然言語クエリで一発になる。
地味だけど効く。
5. 個人サイト・ニッチブログ — 大手メディアでは取れない視点
Personal Site カテゴリは、
独立した個人ブログやポートフォリオサイトを優先的に拾います(出典: exa.ai/docs/reference/search-api-guide)。
Googleの検索結果が大手SEO最適化サイトで埋まる現代だと、
これは独自の価値がある。
役に立つ場面。
- マイナー分野の専門家が書いた一次解説記事の発掘
- 「マスメディアと違う角度の意見」を集める素材集め
- ニッチコミュニティの分布把握
記事素材を集めるブロガーや、独自視点が欲しいリサーチャーに刺さる領域。
6. コード検索 — GitHub+専用インデックスで「動く例」を引く
Code カテゴリ専用に、
Exa は別ブランドで exa-code という機能を出しています(出典: exa.ai/blog/exa-code)。
これが「コーディングエージェント向けに設計された初のウェブスケール文脈ツール」と公式ブログに書かれていて、
検索→コード例抽出→再ランク化の3段階で「数百トークン分の文脈」を返す設計。
役に立つ場面。
- 初使用ライブラリ(Boto3、AI-SDK等)の最初の1個目の動くサンプルを引く
- API エンドポイントの正しい呼び出し方を、ハルシネーション少なく確認
- Claude Code に「このSDKの○○メソッドの使い方探して」と振った時の精度を上げる
公式ブログには、
Prefect ライブラリのテストで「LLM が生成した誤ったパラメータ asset_uris を exa-code が検出して防いだ」事例が載っています(出典: exa.ai/blog/exa-code)。
コード生成のハルシネーション対策として効く。
6カテゴリ総括 — 共通する「Googleで詰まる構造」
6つの使い道を並べて見えてくるのは、
全部「条件が複合している」「意味で探したい」「大手SEOで埋もれない一次情報が欲しい」の3パターンに集約される点です。
Google検索の主戦場である「キーワード一致+商業最適化されたページ」とは、
土俵が違う。
逆に「Exa公式ページの料金は?」みたいな1発検索は、
ブラウザで exa.ai/pricing 開けば終わる話。
役割を分けて考える方が混乱しない。
そもそもGoogleやBingが詰まるクエリって、どんな種類?
「6つの使い道」の裏付けとして、
Exa公式ブログ exa.ai/blog/perfect-search がキーワード型検索の構造的限界を3つ整理しています。
これを読むと、
Exa を入れる動機が腑に落ちる。
限界1: 否定条件が機能しない
公式ブログの一番分かりやすい例。
Googleで "shirts without stripes" を検索すると、
ストライプ柄のシャツが返ってくる(出典: exa.ai/blog/perfect-search)
意訳「ストライプじゃないシャツ」と検索したのに、
ストライプシャツがズラリ。
キーワード検索は「shirts」「stripes」両方含むページを上位に出すので、
否定が効かない。
これは小ネタっぽく見えて、
実は「○○ではない△△」「□□を除く××」系の業務クエリ全部に効く構造的な問題です。
限界2: 多条件の人物・企業・論文クエリ
同ブログの別の例。
undergrads who took time off to study AI alignment and have a blog(出典: exa.ai/blog/perfect-search)
意訳「学部を休学して AI Alignment を勉強した、
ブログを持っている人」。
条件が3つ重なる時点で、
キーワード検索は破綻する。
これがさっき並べた「6つの使い道」の本丸です。
限界3: JavaScript で組み立てられたページが取れない
Exa の Contents API ガイドはこう書いています。
clean, structured content from any URL, handling JavaScript-rendered pages, PDFs, and complex layouts automatically(出典: exa.ai/docs/reference/contents-api-guide)
意訳「JavaScript でレンダリングされるページや PDF、
複雑なレイアウトも自動でクリーンに処理する」。
SPA(=Single Page Application、
最初に枠だけ読み込んで JS で中身を差し替えるサイト)が現代Webの主流。
普通のフェッチでは取れない箇所を Exa は処理する設計。
裏側の数字として、
Exa の WebCode ベンチでは「Claude 標準の web_fetch は、
評価対象 URL 全体の 12.0% で空のコンテンツを返した」と報告されています(出典: exa.ai/blog/webcode)。
限界4: 広告ロジックが検索品質をねじ曲げる
Exa の about ページはこう書いています。
search engine...optimized exclusively for quality, latency, and customizability.(出典: exa.ai/about)
意訳「品質・レイテンシ・カスタマイズ性のみに最適化された検索エンジン」。
広告収益モデルの検索エンジンは、
商業的に都合の良いページを上位に出すバイアスが構造的に乗る。
Exa はそこを切り離した、
というのが公式の立て付けです。
このバイアス問題、AIエージェントの判断材料を集める用途では結構効いてきます。
Claude Code に web_search があるのに、なぜ Exa が要るの?
Claude Code には Anthropic 公式の web_search がもう標準で乗っています。
なのにわざわざ別の検索ツールを追加する意味は何なのか。
一次ソースで確認すると、
論点は4つに整理できました。
1つ目は出力フォーマットが根本的に違うこと。
Anthropic の web_search 公式ドキュメント(platform.claude.com)に明記されている通り、
標準 web_search が返すのは URL・タイトル・暗号化スニペット(encrypted_content)と、
最大150文字でトリミングされた cited_text のみ。
ページ本文の全文は標準では返ってきません。
一方 Exa の web_fetch_exa は、
ページ本文をクリーンな markdown 形式で丸ごと返す設計(出典: exa.ai/docs/reference/exa-mcp)。
標準は「リンク集を渡されてClaudeが個別にWebFetchで読みに行く二段構え」、
Exa は「最初から全文を渡す一段構え」。
エージェントループのラウンド数が違うので、
トークン消費と速度に直接効いてきます。
2つ目は検索方式が違うこと。
Exa は公式ページ exa.ai/about で「エンドツーエンドのニューラルネットワークを用いたウェブ検索用の新規アーキテクチャを訓練」と説明しています。
embedding(=単語や文章を数値ベクトルに変換して意味の近さで検索する方式)ベースのいわゆる neural search(=キーワード一致ではなく意味で探す検索)。
同ページには「研究用に数百個の NVIDIA H200 GPU を保有」とまで書いてあって、
検索の足回りに相当な計算資源を割いている。type=neural や type=auto でモードを切り替え可能(出典: exa.ai/docs/reference/search)。
さっき挙げた「ストライプじゃないシャツ」「学部休学してAI Alignmentやってる人のブログ」みたいな複合・否定・自然言語クエリは、
ここの neural モードで取りに行く領域。
3つ目はWebCode ベンチで差が付いた本当の理由。
Exa 公式ブログ exa.ai/blog/webcode はこう書いています。
Claude 標準の web_fetch は、
評価対象 URL 全体の 12.0% で空のコンテンツを返した(出典: exa.ai/blog/webcode)
同ブログが典型例として挙げているのは、
JavaScript 依存の動的レンダリング(=ページを開いた後に JavaScript が走って中身を組み立てる方式、
SPA や Next.js 系のサイトに多い)ページを静的フェッチでは取得できないケース。
WebCode の評価フレームワーク自体が「JS 実行後の DOM を正解」として設計されているため差が出た形です。
SPA が現代のWebでは主流なので、
コード調査用途で標準だけだと頻繁に詰まる、
というのが Exa 側の主張。
私が個人的に効いてくると感じているのは、
ここの「12% 取れない」が積もると、
エージェント1ループの中で何度も再試行が走ってトークンを溶かす点です。
4つ目はそもそも標準が個人で使えないケースがあること。
Anthropic 公式ドキュメント(platform.claude.com)には「組織の管理者が Claude Console の Privacy 設定で事前に有効化が必要」と明記されています。
個人開発者が API 単独で叩く場合、
Org 管理者を兼ねていればいいですが、
そうでなければ標準そのものが選択肢から消える。
この場合、
Exa を入れる動機は「強化」ではなく「そもそも検索を持たせる」になります。
結論ライン1つで言うなら、
「標準 = 汎用Web検索の薄い窓、
Exa = コード/論文/人物の特化型エージェント検索」と役割分担で見るのが正しい。
両方有効にして Claude に使い分けさせるのが Anthropic 公式の MCP 思想(anthropic.com/news/model-context-protocol)にも沿った想定です。
では具体的にどう違うのか、
後の比較表で6軸並べます。
安全に使えるの?— OSS 公開・プライバシーポリシー・APIキーで判定する
個人開発の副業層が一番気にするのはここ。安全性を3つの軸でほどいていきます。
1. ソースコードは見られるのか
本体の MCP サーバー exa-mcp-server は MIT ライセンスでフル公開されています。
GitHub の exa-labs/exa-mcp-server にコードが置いてあって、
TypeScript 99.1%、
スター 4,325、
フォーク 320、
コミット 376 件(2026-04 時点、
出典: github.com/exa-labs/exa-mcp-server)。
OSS(Open Source Software=ソースコードが誰でも閲覧・改変・再配布できる形で公開されたソフトウェア)かつ MIT ライセンスなので、
何が動いているか自分の目で確認できる。
私はクローズド検索APIに月7ドル払うより、
まずソースが見える方を信用する派です。
標準の web_search(Claude が標準で持っているWeb検索ツール)は内部実装非公開でブラックボックスなので、
ここは Exa 側が一歩リード。
2. 検索クエリはどこに飛ぶのか
Exa のプライバシーポリシー(2025年11月3日版)はこう書いています。
Query Data is used to improve our products and technology, including by training and fine-tuning models that power our Services.(出典: exa.ai/privacy-policy)
つまり検索した文字列は、
Exa のサービス改善とモデル学習に使われ得る。
これは正直、
業務利用では引っかかる。
かつ Zero Data Retention(=ログを一切保持しない契約形態)は Enterprise プラン限定。
無料枠と通常の有料プランでは、
クエリは Exa 側に保持されます(出典: exa.ai/pricing)。
Do Not Track 信号にも未対応と公式に明記。
検索プライバシーをガチガチに守りたい人にとっては、
ここは弱点です。
3. APIキーはどこに保管するのか
APIキー(=外部サービスを使うための個人専用パスワード文字列)は dashboard.exa.ai/api-keys で取得して、
Claude Code 側で EXA_API_KEY という環境変数に入れる方式(出典: exa.ai/docs/reference/exa-mcp)。
ここで初心者が踏みやすい地雷が1つあります。
Anthropic 公式の Claude Code MCP ドキュメント code.claude.com/docs/en/mcp はこう警告しています。
Use third party MCP servers at your own risk - Anthropic has not verified the correctness or security of all these servers. Make sure you trust MCP servers you are installing.(出典: code.claude.com/docs/en/mcp)
第三者の MCP サーバーは「自分で信用判定しろ」というスタンス。
本物の Exa(公式エンドポイントは https://mcp.exa.ai/mcp)以外を間違えて入れると、
APIキーが赤の他人のサーバーに飛ぶ可能性がある。
私は mcp.exa.ai/mcp 以外のURLが指定されているMCPはセットアップ前に弾く運用です。
判定(私の見方)
3軸を通して、私の判定はこう。
- 個人開発・副業のWeb調査用途 → 概ね安全。OSS でコードが見える、無料枠で料金トリガーが明確、APIキー方式で送信先が確定している
- 顧客名・社外秘・社内コード片を投げる業務利用 → やめとけ。クエリが学習に流れる仕組みなので、Enterprise 契約で Zero Data Retention を入れない限り筋悪
- 公式以外の野良 MCP サーバーを混ぜる運用 → 別リスクが乗るので NG。
mcp.exa.ai/mcpまたはclaude-plugins-officialプラグイン以外は触らない
判定ラインさえ守れば、普通に使えるツールだと思います。
標準の web_search と何が違う?— 比較表で見る
Anthropic 標準の web_search ツールと Exa for Claude を、
6軸で並べます。
| 比較軸 | Anthropic 標準 web_search | Exa for Claude |
|---|---|---|
| 検索範囲 | 汎用Web検索(スニペット中心) | Web 全般+研究論文+企業/人物+ライブラリドキュメント等6カテゴリ、インデックスは10億超のWebページとプロフィール |
| 出力形式 | URL とタイトル+暗号化済みスニペット、citations 自動付与 | クリーンな markdown 形式のフルコンテンツ(web_search_exa / web_fetch_exa) |
| 料金 | $10 / 1,000 searches(Anthropic API への追加課金) | 無料枠 月1,000リクエスト、超過後 Search $7 / 1,000req、Contents $1 / 1,000pages |
| レイテンシ | 公式ドキュメントに具体値の記載なし | Fast モード約500ms、Auto 約1,000ms、Deep 約5,000ms(出典: exa.ai/docs/reference/evaluating-exa-search) |
| データ送信先 | Anthropic API サーバー経由 | Exa Labs Inc.(米サンフランシスコ)のサーバー、クエリはモデル学習に利用され得る |
| OSS 公開 | 非公開(サーバーサイド実装) | MIT ライセンスで全コード公開(github.com/exa-labs/exa-mcp-server) |
| 設定の手間 | Org 管理者によるコンソール有効化のみ(個人開発者だと利用不可の場合あり) | アカウント作成+APIキー発行+MCP登録+Claude Code 再起動の4ステップ |
精度面の比較は、
Exa 公式ブログの WebCode ベンチマーク(2026年3月23日公開、
出典: exa.ai/blog/webcode)が一次ソースになっています。
| WebCode 指標 | Exa | Claude 標準 |
|---|---|---|
| Code Recall(コード断片の取り漏らしの少なさ) | 96.7 | 82.4 |
| Completeness(回答の完全性) | 82.8 | 59.8 |
| Signal(ノイズの少なさ) | 94.5 | 55.1 |
| Accuracy(事実正確性) | 89.3 | 81.1 |
| Table Recall(表の取り漏らしの少なさ) | 91.9 | 82.0 |
WebCode のデータセットは「コーディングエージェントの検索分布から抽出した250 URL+RAG 用317クエリ+E2E 用33タスク」という構成(出典: exa.ai/blog/webcode)。
同ブログには「Claude 標準は全体の12%でコンテンツを返さない」という記述もあります。
あくまで Exa 自社ベンチではあるけれど、
ベンチ手順とデータセット内訳が一次ソースで全公開されているので、
解釈の起点としては使える数字だと思います。
個人的に効いてくるのは「Code Recall 96.7 vs 82.4」より「Completeness 82.8 vs 59.8」の方。
検索結果が「ちゃんと中身を含んでるか」の差で、
これが大きいと体感の使い心地はかなり変わるはず。
導入手順 — Claude Code に繋ぐまで(5ステップ)
Exa 公式ドキュメントと Anthropic 公式の Claude Code MCP ドキュメントを突き合わせると、
導入の最短経路はこうなります。
exa.ai/claude 公式ページの記述を初心者向けに段階分解しました。
STEP1: Exa アカウント作成 → APIキーをコピー
dashboard.exa.ai/api-keys に行って、
メールアドレスでサインインします。
ダッシュボードに入ったら「Create new key」で APIキー(exa_xxxx... という長い文字列)を発行して、
その場でコピー。
ここで気を付けたいポイント。
APIキーはこの画面でしか全文表示されません。
閉じる前に必ずどこかに控えておく。
STEP2: APIキーを安全な場所に保管
Anthropic 公式の MCP ドキュメント code.claude.com/docs/en/mcp は、
APIキー等の機密情報を .mcp.json に直書きすると、
project スコープでGit共有された時にチームに漏れるリスクを警告しています。
初心者は次の3つのうちどれかにする。
- OS のキーチェーン(macOS なら Keychain、Windows なら資格情報マネージャー)に入れて、シェルから読み出す
~/.zshrcや~/.bashrcにexport EXA_API_KEY="exa_xxxx..."と書く(自分のPCのみで完結する場合)- プロジェクト内の
.envに書いて、.gitignoreで.envを必ず除外する(Git に commit したら一発アウト)
ここでミスると後の手順が全部無意味になる。慎重に。
STEP3: Claude Code に MCP サーバーを登録
Claude Code の CLI(=ターミナルから操作するコマンドライン)でこう叩きます(出典: github.com/exa-labs/exa-mcp-server)。
claude mcp add --transport http exa https://mcp.exa.ai/mcp
成功時のターミナル出力は、
Anthropic 公式の Claude Code MCP ドキュメント(出典: code.claude.com/docs/en/mcp)に従えば Added MCP server 表記の確認メッセージが返る形。
Added MCP server "exa" (transport: http) to local config相当の1行が出れば成功。
何も出ない・ERROR が出る場合は APIキー値の貼り付けミス、
または URL のタイプミスを再確認してください(具体的な出力文言は Claude Code のバージョンで変わるので、
出典は code.claude.com/docs/en/mcp の最新表記を確認)。
ここで重要なのは、
エンドポイント URL が https://mcp.exa.ai/mcp(公式)になっているかの確認。
第三者が立てたクローン(mcpservers系・Heroku系等)に向けると、
APIキーが赤の他人のサーバーに飛びます。
これは Anthropic 公式が警告している通りのリスク。
もしくはプラグイン方式で入れるなら、
Exa 公式ページが提示しているコマンド(出典: exa.ai/claude)。
claude plugin marketplace update claude-plugins-official && claude plugin i exa@claude-plugins-official
こっちは Anthropic 公式マーケットプレイス claude-plugins-official 経由なので、
ソース信頼性の観点では一番きれい。
STEP4: スコープを決める
Claude Code の MCP サーバー登録には3つのスコープがあります(出典: code.claude.com/docs/en/mcp)。
- local(デフォルト): 現在のプロジェクトのみ、
~/.claude.jsonに保存、チームに共有されない - project:
.mcp.jsonに保存、Git で共有可能。ただし APIキーは絶対に書かない - user: 全プロジェクト共通、
~/.claude.jsonに保存
副業・個人開発で1人で全リポジトリ横断で使うなら --scope user 一択。
チームで共有したい場合だけ --scope project に切り替える、
という判断ラインで動けば迷わない。.mcp.json に APIキーを直接書くのは絶対NG。
STEP5: 接続確認 → 初回クエリ
Claude Code を一度終了して再起動し、/mcp コマンドで接続状態を見る。
Exa が「connected」になっていれば成功。
あとは Exa 公式が示している例(出典: exa.ai/claude)。
/search Find the top 20 frontend engineers who work at a startup and have publicly written about design
こういう「人物検索+条件複合」を投げると、
Exa 経由で結果が返ってくる仕組み。
ここまで通れば導入完了です。
注意点 — 個人と業務で踏むべき線
導入できることと、
業務で使えることは別。
Q1の読者像(副業層・APIキー管理に不安あり)を想定すると、
踏むべき線は3本に整理できます。
線1: 業務情報をクエリに混ぜない
Exa プライバシーポリシーが明記しているのは「Query Data はモデル学習に利用され得る」という事実。
Zero Data Retention は Enterprise 限定(出典: exa.ai/pricing)。
つまり「クライアント名で検索」「社内コードを貼り付けて関連ドキュメント探す」「社外秘の固有名詞を投げる」は全部アウト寄り。
私なら無料・通常有料プランでは絶対やらない。
線2: APIキーを絶対に Git に乗せない
具体的にやってしまいがちな失敗パターン3つ。
.mcp.jsonに APIキー直書き → project スコープでgit add→ リモートに push.envを.gitignoreに書き忘れ → 公開リポジトリにそのまま流出- シェルの履歴ファイル(
.bash_history)にexport EXA_API_KEY=...がそのまま残る → バックアップ経由で漏れる
1個でも踏むと、
Exa ダッシュボードで使用量が爆発します。
私なら APIキーは OS のキーチェーンか専用シークレットマネージャに入れる派。
線3: 公式エンドポイント以外は触らない
Exa の公式 MCP エンドポイントは https://mcp.exa.ai/mcp ただ1つ。
プラグイン方式は claude-plugins-official 経由のみ。
第三者が立てた exa-mcp-server クローンや Heroku デプロイ版に同じ APIキーを渡すと、
そのクローン運営者にキーが渡ります。
Anthropic 公式が「Use third party MCP servers at your own risk」と書いているのはまさにこのケース。
初心者が一番踏みやすい地雷がここ。
料金 — 月1,000リクエスト無料、それ以降は?
Exa の公式料金ページ exa.ai/pricing から、
副業層が気にする数字を表にまとめます。
| 機能 | 料金 | 備考 |
|---|---|---|
| 無料枠 | 月1,000リクエストまで無料 | 個人の Web 調査用途なら大半が収まる |
| Search | $7 / 1,000リクエスト | 標準的な検索 |
| Deep Search | $12 / 1,000リクエスト | 深掘り検索 |
| Deep-Reasoning Search | $15 / 1,000リクエスト | 推論を伴う検索 |
| Contents(ページ取得) | $1 / 1,000ページ | 本文抽出 |
| Answer | $5 / 1,000リクエスト | 直接回答生成 |
| Zero Data Retention | Enterprise プランのみ | カスタム料金、要問い合わせ |
比較対象として、
Anthropic 標準 web_search は $10 / 1,000 searches(出典: Anthropic 公式ドキュメント)。
Exa は1,000リクエストまで無料なので、
月100回程度の利用なら完全に無料枠内に収まります。
副業の Web 調査用途で月1,000リクエスト超えるかというと、
よほど集中して使わない限り超えない。
私の感覚では、
検索を1日30回 × 30日でやっと900回。
これは無料枠の中で十分回せるレベル。
逆に「業務でガチ運用」「複数案件並列」になると瞬時に超過します。
その場合は $7 / 1,000req のラインを覚悟する。
FAQ
Q. 結局、ブラウザでGoogle検索すれば足りるんじゃないの?
1発検索なら足ります。
Exaが効くのは「ストライプじゃないシャツを探す」「NYで哲学ブログを書いたエンジニアを抽出」みたいな複合・否定・自然言語クエリ、
または arxiv 論文や SEC ファイリングの全文意味検索。
Googleで「目視で1ページずつ当たるしかない」種類の調査が、
コマンド1本で片付くようになります(出典: exa.ai/blog/perfect-search)。
Q. 副業ブロガー・個人開発者だと、6カテゴリのうちどれが一番効く?
記事素材を集めるブロガーなら Research Paper(学術論文)と Personal Site(個人ブログ)が刺さります。
個人開発者・副業エンジニアなら Code(GitHub+専用index)が即効性あり。
「初使用ライブラリの最初の1個目の動くサンプル」を Claude Code に引いてもらう用途で、
ハルシネーション減ります(出典: exa.ai/blog/exa-code)。
Q. Exa for Claude を入れるだけで Claude Code の検索が全部置き換わるの?
いいえ、
置き換わりません。
Anthropic 標準の web_search はそのまま動き、
Exa は別ツールとして並列に存在します。
Claude がどちらを呼ぶかは、
その時のクエリ内容と Claude 自身の判断次第。
両方有効にしておくと使い分けてくれる仕組みです。
Q. APIキーは Exa ダッシュボードから取り消しできる?
できます。
dashboard.exa.ai/api-keys で発行済みキーを revoke(無効化)できます。
漏らしたと気付いた時点で即無効化、
新しいキーを発行し直すのが鉄則。
発行済みキーの一覧と最終使用時刻も確認できます。
Q. Claude.ai(ブラウザ版 Pro/Team プラン)でも Exa は使える?
Exa 公式ページ exa.ai/claude は Claude Code とプラグインの両方に対応と書いていますが、
claude.ai 側の Connectors/Plugin での具体的な設定UI手順までは公式に詳細記載なし。
Pro/Team プラン契約の人は claude.ai のプラグイン管理画面から確認するのが確実です。
Q. 検索結果は Anthropic 標準より速い?
Exa 公式の評価ガイド(出典: exa.ai/docs/reference/evaluating-exa-search)によれば、
Fast モードで約500ms、
Auto で約1,000ms、
Deep で約5,000ms。
Anthropic 標準 web_search は公式ドキュメントに具体的なレイテンシ値の記載がないため、
直接比較の数字は出ていません。
Q. クエリにうっかり社内コードを混ぜてしまった場合は?
Exa プライバシーポリシーには明示的なオプトアウト手順や個別削除の記載がありません。
連絡先 hello@exa.ai に削除申請を投げるのが現実的な対応。
気付いた時点で APIキーを無効化+新規発行もセットで実施するのが安全です。
Q. 標準 web_search と Exa、どっちから試すべき?
Anthropic 標準 web_search は Org 管理者の有効化が必要で、
個人開発の API 単独利用だとそもそも使えないケースがあります。
Claude Code に Pro 契約で入っているなら、
まず標準で十分なケースを把握してから Exa を追加して比較する流れがロスが少ないと思います。
逆に Code Recall や Completeness で「明らかに足りない」と感じている人は、
いきなり Exa 無料枠から試す手もあり。
このページに出てきた言葉
- MCP
- AI にツールや情報源を繋ぐための共通規格。Anthropic が提唱、外部サービスを Claude などのAIに後付けする仕組み
- OSS
- Open Source Software。ソースコードが誰でも閲覧・改変・再配布できる形で公開されたソフトウェア
- MIT ライセンス
- OSS ライセンスの中でも特に制約が緩いもの。商用利用も改変も再配布も自由、著作権表示だけ残せばよい
- APIキー
- 外部サービスを使うための個人専用のパスワード文字列。漏らすと第三者に課金されたり情報が抜かれたりする
- CLI
- Command Line Interface。マウスではなくターミナル(黒い画面)で文字コマンドを叩いて操作する方式
- neural search
- キーワード一致ではなく、意味の近さで探す検索方式。「ストライプじゃないシャツ」みたいな否定・複合クエリに強い
- embedding
- 単語や文章を数値ベクトルに変換して、意味の近さを計算可能にする手法。neural search の土台
- カテゴリ検索
- Exa 固有の機能。検索対象を「人物」「企業」「論文」「金融資料」「個人ブログ」「コード」などに絞り込める
- SPA
- Single Page Application。最初に枠だけ読み込んで、後は JavaScript で中身を差し替えるWebサイトの作り方
- 動的レンダリング
- ページを開いた後に JavaScript が走って中身を組み立てる方式。Next.js 系のサイトに多い。静的フェッチでは取りこぼしやすい
- Zero Data Retention
- サービス側に検索クエリやログを一切保持しない契約形態。Exa では Enterprise プラン限定
- Do Not Track
- ブラウザから「追跡しないでね」と意思表示する信号。Exa は対応していないと公式明記
- RAG
- Retrieval-Augmented Generation。検索で得た情報を AI の回答生成に組み込む手法
- エンドポイント
- API リクエストを受け取る URL のこと。Exa の公式 MCP エンドポイントは
https://mcp.exa.ai/mcp - 環境変数
- OS やシェルが持つ「設定値の入れ物」。APIキーなどを直書きせず変数経由で渡すために使う
- ハルシネーション
- AIが事実と違う情報を、自信ありげに出力してしまう現象。コード生成だと存在しないAPIを書いてしまう、など
参考リンク
- Exa for Claude 公式ページ: https://exa.ai/claude
- Exa 料金ページ: https://exa.ai/pricing
- Exa プライバシーポリシー: https://exa.ai/privacy-policy
- Exa セキュリティポリシー: https://exa.ai/security
- Exa 企業情報・アーキテクチャ: https://exa.ai/about
- Exa Search API ガイド(カテゴリ・使い分け): https://exa.ai/docs/reference/search-api-guide
- Exa Search API リファレンス: https://exa.ai/docs/reference/search
- Exa Contents API ガイド(JS依存ページ自動処理): https://exa.ai/docs/reference/contents-api-guide
- Perfect Search ブログ(キーワード検索の限界): https://exa.ai/blog/perfect-search
- WebCode ベンチマーク(2026-03-23): https://exa.ai/blog/webcode
- exa-code ブログ(コード検索特化): https://exa.ai/blog/exa-code
- Exa 顧客事例: https://exa.ai/customers
- exa-mcp-server リポジトリ: https://github.com/exa-labs/exa-mcp-server
- Exa MCP 公式ドキュメント: https://exa.ai/docs/reference/exa-mcp
- Exa APIキー取得: https://dashboard.exa.ai/api-keys
- Anthropic Claude Code MCP ドキュメント: https://code.claude.com/docs/en/mcp
- Anthropic 標準 web_search ドキュメント: https://platform.claude.com/docs/en/docs/agents-and-tools/tool-use/web-search-tool
- Anthropic MCP 発表記事: https://www.anthropic.com/news/model-context-protocol
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。