Claude Code(公式CLI)でOpus 4.7を使うとAPIの料金がかさみますよね。
月数万円になることもあります。
その料金を10分の1前後まで下げる方法が公開されました。
Claude Codeの操作感はそのまま、
中身のAIだけDeepSeek V4-Proというモデルに差し替えるやり方です。
必要なのは、
ターミナルに環境変数(OSに記憶させる設定値)を3行コピペするだけ。
設定後はclaudeコマンドが今までどおり動きます。
違うのは月末の請求額だけです。
ただし75%オフ価格は2026年5月5日 15:59 UTCで終了します。
データが中国のサーバを通る点もあわせて確認してください。
この記事はClaude CodeのAPI代を下げたい人向けです(ターミナルに数行コピペできれば読めます)。
結局この記事で何ができるようになる?
一言でいうと、
Claude Codeで使うAIエンジンを「Claude」から「DeepSeek V4-Pro」に差し替えられます。
差し替えると、
AIに支払う料金が10分の1前後まで下がります。
使い方は今までと同じです。
プロジェクトディレクトリでclaudeと打ってCLI(コマンドラインで対話するインターフェース)を起動し、
コードや指示を投げるだけ。
スラッシュコマンドもサブエージェントも全部そのまま動きます。
違うのは内部の通信先です。
リクエストがAnthropic(Claudeを作っている会社)ではなくDeepSeek(中国のAI会社)に飛びます。
請求もDeepSeek側に発生します。
ここから先で、
Claude/Claude Codeの違い・料金の仕組み・設定手順・注意点・どんな人に向くかを順に整理していきます。
「Claude」と「Claude Code」は別物。なぜわざわざClaude Codeを使う?
「Claudeが使えなくなるなら意味なくないか?」と引っかかる人向けに、
ここで言葉を整理します。
「Claude」と「Claude Code」は別の製品です。
差し替え後にどちらがどうなるかを表で並べました。
| 名前 | 正体 | 差し替え後 |
|---|---|---|
| Claude | AIモデル本体(脳みそ)。Anthropicが作っている | 使えなくなる。代わりにDeepSeek V4-Proが脳みそになる |
| Claude Code | Anthropicが作っているコーディング用CLIツール(脳みそを動かす皮) | そのまま動く |
つまり差し替え後もClaude Code(CLIツール側)はそのまま動きます。
失うのはClaudeモデル(中の脳みそ)だけです。
Claude Code(皮)が独自に持ち込んでくる機能
Claude Codeはチャット画面というより、
開発者向けの作業環境がぎっしり詰まった皮です。
代表的な機能はこのあたり。
- サブエージェント:複数のAIに役割分担させる仕組み
- スラッシュコマンド:
/で呼び出すショートカット集 - MCP統合:外部ツール(Notion・Slack・データベース等)をAIから直接呼ぶ仕組み
- フック:特定のイベントで自動的にスクリプトを動かす仕掛け
- ファイル編集ループ:指示するとAIがコードを直接書き換える動き
- プロジェクト全体の文脈把握:
CLAUDE.md等にプロジェクトの記憶を持たせる仕組み
これら全部、
Claude Codeを起動するだけでついてきます。
中の脳みそをDeepSeekに替えても、
この皮はそのまま残ります。
DeepSeek純正のインターフェースじゃダメなの?
DeepSeek自身が用意しているのは、
ブラウザのchat.deepseek.comと生のAPIの2つだけです。
Claude Code/Cursor/Aider級のエージェント環境はDeepSeek純正には存在しません。
第三者製のdeepseek-cli等はPyPIやGitHubに転がっていますが、
機能の厚みがClaude Codeとは桁違いです。
サブエージェントもMCPもフックもありません。
「DeepSeekで本格的にコードを書かせたい、
でも純正にエージェント環境が無い」を埋めるための1手が、
Claude Codeに繋ぐ今回のやり方になります。
例えるなら「Cursor + GPT」と「Cursor + Claude」の関係
Cursor(人気のAIコードエディタ)を、
GPTで動かすかClaudeで動かすか選べる、
という話と構造は同じです。
エディタ(皮)は同じで、
中の脳みそだけ別物。
今回は皮がClaude Code、
脳みそがClaudeかDeepSeekかという選択になります。
失うものと残るものを整理するとこの通りです。
| 項目 | 差し替え後 |
|---|---|
| Claudeモデルの品質(特に複雑な設計判断・思考モード) | 失う |
| Claude Codeの全機能(CLI・サブエージェント・MCP・フック等) | 残る |
| 月のAPI代 | 1/10前後に下がる |
| 請求先 | Anthropic→DeepSeekに切り替わる |
引用したbswen.comの開発者は「複雑な設計判断はClaudeに残す、
量をこなすコード生成はDeepSeekに振る」という使い分けをしています。
皮としてのClaude Codeをそのまま動かしながら、
中の脳みそだけ2つ用意して切り替える運用ですね。
そもそもAPI料金ってどういう仕組み?
記事を進める前に、
Claude CodeのようなAI APIの料金体系を簡単に整理します。
「入力料金」「出力料金」「キャッシュヒット」という3つの言葉さえ押さえれば後は読めます。
AIに何かを頼むとき、
こちらが送る文字(プロンプト・コード・指示)と、
AIが返す文字(回答・生成コード)は別々に課金されます。
- 入力料金:AIに送る文字に対する料金
- 出力料金:AIから返ってくる文字に対する料金
単位は「トークン」。
日本語1文字がおおよそ1〜2トークンに相当します。
料金表は「100万トークンあたり何ドル」で書かれます。
もう1つ、
同じ文章を何度も送ったときの割引があります。
AI側がプロンプトを記憶(キャッシュ)して、
2回目以降を安くする仕組みです。
- キャッシュヒット価格:同じプロンプトの再利用時に適用される割引料金(通常の1/10程度)
- キャッシュミス価格:初めて送るプロンプトに適用される通常料金
Claude Codeみたいに同じプロジェクトのコードを何度も読ませるツールでは、
キャッシュヒット価格が月の請求額に直結します。
ここを覚えておくと次の比較表が読めます。
DeepSeek V4-Proって何のモデル?
DeepSeek(中国のAI会社)が2026年4月24日に公開した最新モデルです。
サイズ違いでV4-ProとV4-Flashの2種類があります。
構造はMoE(複数の小型AIを使い分ける仕組み)。
総パラメータ1.6兆のうち、
推論時に動くのは490億パラメータだけです。
総容量は巨大ですが、
毎回のリクエストでは一部だけ動かすので速度が出ます。
1度に渡せる文字数(コンテキスト)は最大100万トークン、
AIが返せる最大文字数は38万4千トークン。
Hugging Face(AIモデルの共有サイト)の公式リポジトリでMITライセンス(商用利用OKの緩いライセンス)で配布されています。
先月のダウンロード数は12万3千回でした。
VentureBeatの見出しはこう書いています。
DeepSeek-V4 arrives with near state-of-the-art intelligence at 1/6th the cost of Opus 4.7, GPT-5.5
(出典: VentureBeat)
Decryptはもっと攻めた数字を出しています。
DeepSeek V4 Is Here—Its Pro Version Costs 98% Less Than GPT 5.5 Pro
(出典: Decrypt)
そしてこの記事の本題は、
DeepSeek公式が同じタイミングで公開した「Claude Code互換ゲートウェイ」のほうです。
ゲートウェイは「中継サーバ」のこと。
Claude CodeはAnthropicに送信しているつもりで、
実際の通信はDeepSeekに到着する仕組みになります。
Claude Codeに何で繋がるの?仕組みを1段落で
DeepSeekがAnthropic API仕様(Claudeを叩くときのリクエスト形式)と互換のエンドポイントを公開しています。
同じリクエスト形式を受け付けるので、
Claude Code側は「Anthropic純正と通信している」と思いこんで動きます。
Claude CodeのCLI操作・スラッシュコマンド・サブエージェント機能はそのまま使えます。
中身のモデルだけ差し替わる仕組みです。
DeepSeek公式統合ガイドの冒頭にこうあります。
DeepSeek-V4 is seamlessly integrated with leading coding agents such as Claude Code. Already driving our in-house agentic coding at DeepSeek.
「自社のagentic codingでも回している」が地味に効く一文ですね。
料金は実際どこまで下がる?(75%オフ適用後の比較表)
DeepSeek公式料金ページの数字を引きます。
Anthropic公式料金ページとOpenAIの公開料金を並べた表です。
表の見方: 「入力(キャッシュミス)」が初めて送る文章の料金、
「入力(キャッシュヒット)」が同じ文章を再利用したときの割引料金です。
期限は2026年5月5日 15:59 UTCまでです。
| モデル | 入力(キャッシュミス)/1Mトークン | 入力(キャッシュヒット)/1Mトークン | 出力/1Mトークン | コンテキスト |
|---|---|---|---|---|
| DeepSeek V4-Pro(75%オフ) | $0.435 | $0.03625 | $0.87 | 1M |
| DeepSeek V4-Pro(通常) | $1.74 | $0.0145 | $3.48 | 1M |
| DeepSeek V4-Flash | $0.14 | $0.0028 | $0.28 | 1M |
| Claude Opus 4.7 | $5 | $0.50 | $25 | 1M([1m]時) |
| GPT-5.5 Pro | $30 | — | $180 | 200K |
75%オフ適用後で計算すると、
Opus 4.7比で入力11.5分の1・出力28.7分の1です。
出力料金で比べた方が差は派手で、
$25 vs $0.87。
AIに長い回答を吐かせる用途(自動でコードを書かせる、
長い解説を生成させる等)で効きます。
Anthropic側もキャッシュヒット価格はあります。
$0.50/1Mトークンで通常の90%オフです。
ただDeepSeek 75%オフのキャッシュヒット$0.03625には及びません。
約14倍差ですね。
個人的には、
入力側のキャッシュヒット価格の方が効くんですよね。
$0.03625/1Mトークン。
同じプロンプトを何度も叩く用途だと、ここが月末の請求額にじわじわ出ます。
Claude Codeから繋ぐ設定は何を書けばいい?
DeepSeek公式統合ガイドが示す環境変数はこちら。
環境変数というのは、
ターミナルやOSが起動時に読み込む設定値のことです。~/.zshrcまたは~/.bashrcというファイルに追記します。
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=<DeepSeek APIキー> export ANTHROPIC_MODEL=deepseek-v4-pro export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash export CLAUDE_CODE_EFFORT_LEVEL=max
1点だけ注意があります。ANTHROPIC_API_KEYではなくANTHROPIC_AUTH_TOKENを使います。
DeepSeekはAnthropic純正ではなくゲートウェイ(中継サーバ)扱いです。
Claude Code側がGateway用の認証変数を要求します。
ここを間違えると401(認証失敗のエラーコード)で弾かれます。
地味な落とし穴ですね。
1Mコンテキストを解放する[1m]サフィックスとは?
サフィックスというのはモデル名の末尾に付ける目印のことです。
Claude Code公式ドキュメント(model-config)はこう書いています。
Claude Code strips the suffix before sending the model ID to your provider. Only append [1m] when the underlying model supports 1M context.
(出典: Claude Code公式 model-config)
つまりdeepseek-v4-pro[1m]と書けば、
Claude Codeが1Mコンテキスト(一度に渡せる文字数100万トークンモード)で動きます。
送信時に[1m]は剥がされ、
DeepSeek側にはdeepseek-v4-proとして届く仕組みです。
両モデルとも1M対応なので、サフィックス付与でフルレンジが解放されます。
環境変数で固定するなら次のように書きます。
export ANTHROPIC_DEFAULT_OPUS_MODEL='deepseek-v4-pro[1m]' export ANTHROPIC_MODEL='deepseek-v4-pro[1m]'
セッション中に切り替えるなら/model deepseek-v4-pro[1m]です。
多くの記事が環境変数を貼って終わりますが、
この[1m]を見落とすと200K止まり。
スイッチひとつの差です。
DeepSeek V4-Pro × Claude Codeを実際にセットアップする手順
DeepSeek公式ガイドの推奨フローを再構成します。
Claude Codeはインストール済み前提です。
- DeepSeek APIキーを取得:platform.deepseek.com でアカウント作成→「API Keys」→「Create new API key」を押す。生成されたキーは1度しか表示されないのでコピーして保管します。
- 環境変数を
~/.zshrcまたは~/.bashrcに書く:上のブロックの環境変数8行をそのまま追記。ANTHROPIC_AUTH_TOKENに取得したAPIキーをペースト。1M解放したいならANTHROPIC_DEFAULT_OPUS_MODELを'deepseek-v4-pro[1m]'にします。 - シェルを再読込:
source ~/.zshrc(zshの場合)またはsource ~/.bashrc(bashの場合)。新しいターミナルを開き直してもOKです。 - 動作確認:プロジェクトディレクトリで
claudeを起動→/modelコマンドで現在のモデルがdeepseek-v4-pro[1m]になっているか確認。簡単な質問を投げてレスポンスが返ればOK。401が出たらANTHROPIC_AUTH_TOKENを疑います。 - DeepSeek側のダッシュボードで使用量を確認:platform.deepseek.comの「Usage」ページで、Claude Codeから飛んだリクエストが課金されているか見ます。Anthropic側のダッシュボードには課金されません。
ハマるポイントは2つに絞れます。AUTH_TOKENとAPI_KEYの取り違え、
それと[1m]サフィックスの付け忘れです。
両方とも認証や容量で詰まりますが、
エラーメッセージが分かりにくいんですよね。
環境変数を1行ずつ確認するのが結局速いです。
ベンチマークはどこまで信用できる?
ベンチマークというのは、
複数のAIモデルを共通テストで採点した順位表のことです。
buildfastwithaiとApiyi公式ブログの数字を表にしました。
| ベンチマーク | DeepSeek V4-Pro | Claude Opus 4.6 | 差 |
|---|---|---|---|
| LiveCodeBench (Pass@1) | 93.5 | 88.8 | +4.7 |
| Codeforces Rating | 3206 | — | 人間ランキング23位相当 |
| SWE-bench Verified | 80.6% | 80.8% | -0.2pt |
| Terminal-Bench 2.0 | 67.9% | 65.4% | +2.5pt |
| IMOAnswerBench(数学) | 89.8 | 75.3 | +14.5 |
SWE-benchが「実際のGitHubの不具合修正タスクをAIに解かせるテスト」で、
コード生成AIの実力指標として一番標準的なもの。
ここがOpus 4.6とほぼ同点(-0.2pt差)です。
buildfastwithaiの評価がストレートですね。
first time an open-source model has comprehensively suppressed closed-source flagships in coding ability
(出典: buildfastwithai)
ただしこの数値は「DeepSeek-V4-Pro-Max」(推論モードMax)で取られた可能性が高いです。
Hugging Face公式カードもMax設定でのスコア掲載になっています。
普段のdeepseek-v4-pro呼び出しは「Think High」相当。
ベンチマーク満点が日常運用そのまま再現するわけではないので、
期待値は1段下げるのが現実的ですね。
著名AI研究者のブログ(simonwillison.net)は別角度から留保を入れています。
DeepSeek V4 is a very, very inexpensive model... its performance falls marginally short of GPT-5.4 and Gemini-3.1-Pro, suggesting a developmental trajectory that trails state-of-the-art frontier models by approximately 3 to 6 months
(出典: simonwillison.net)
「3〜6ヶ月遅れ」という見立てですね。
最先端より少し後ろを格安で走るモデルだと読むのが正確です。
他者の実使用レポート(実測コスト)
個人開発者ブログbswen.comが、切り替え後の実測値を出しています。
1セッション(入力5万トークン + 出力10万トークン)でのAPIコストはこうです。
「K」は1000の意味なので、
50K=5万トークンですね。
| モデル | 1セッション(5万入力+10万出力) | 差 |
|---|---|---|
| DeepSeek V4 Flash | $0.035 | — |
| Claude Sonnet 4.6 | $1.65 | 47倍 |
This is the good stuff, cheap, crazy fast, and good. I've switched from 5.3 codex to GLM 5.1 and Deepseek-v4-pro/flash.
(出典: bswen.com)
同開発者は月のAPI代を$40(Claude+GPT合算)から約$15に圧縮したと書いています。
タスクの80%をDeepSeekに振り分けた構成です。
残り20%はClaudeに残しているそうです。
ただし留保もあります。同記事から引きますね。
DeepSeek V4 Flash unsuitable for novel architecture decisions, security-sensitive code, and tasks requiring extensive context across 50+ files
(出典: bswen.com)
新しい設計判断、
セキュリティ周り、
50ファイル超のリファクタ(コードの書き直し)はFlashだと厳しいと書かれています。
Proに上げれば多少改善しますが、
最上位モデルと完全互換ではない前提で使い分けが要りますね。
DeepSeek公式技術レポート(Atlascloud経由で公開)も同じ立ち位置を取っています。
output quality approaching Claude Opus 4.6 in non-thinking mode, though still trailing Opus 4.6's thinking mode
(出典: DeepSeek公式技術レポート)
「Claude Opus 4.6に近づいた、
ただし思考モードではまだ届かない」と自社で書いています。
これがV4-Proの現在地ですね。
中国サーバ保管とプライバシー、ここは別議論
個人情報保護委員会が2025年2月3日に公式アラートを出しています(更新日2025年3月5日)。
原文をそのまま引きます。
データは、中華人民共和国に所在するサーバに保存されること
当該データについては、中華人民共和国の法令が適用されること
(出典: 個人情報保護委員会 公式アラート)
適用される法令として委員会が挙げているのは4本です。
中国個人情報保護法、
サイバーセキュリティ法、
データセキュリティ法、
国家情報法の4つになります。
デジタル庁も2025年2月6日付で事務連絡を出しています。
各府省庁に「業務利用はリスクを十分認識した上で」と要請しました(digital.go.jp)。
このアラートはDeepSeek-R1/V3世代(2025年2月時点)のものです。
V4-Pro発売後の追加アラートは2026年4月時点で確認できません。
ただホスティング元が同じなので原則的に引き続き適用されると読むのが妥当ですね。
Promptfooの検閲調査も合わせて見ておく価値があります。
政治的センシティブなトピックの約85%で検閲を確認。
台湾、
天安門、
習近平批判などを拒否... 検閲はコーディング・プログラミングタスクには影響しない(出典: Promptfoo)
コードを書かせる用途では検閲は刺さりません。
一方、
データが中国サーバを経由する事実は変わりません。
私はこう線を引いています。
- 個人の副業コード・OSS開発:使ってよさそう。漏れて困るデータがそもそも入っていません
- 業務用コード・顧客データ・社内コードベース:会社の規程確認が先。多くの企業はDeepSeek業務利用を禁止または要承認にしています
- 未公開SaaSのコアロジック・社外秘の営業情報:避けた方が無難です
DeepSeek自体が悪というより、
データが流れる先と適用法令の議論ですね。
会社からは「Opus 4.7やGPT-5.5の方が安心」というシンプルな理由で除外されます。
DeepSeekの安全度:漏洩事件・学習利用・jailbreak耐性
中国サーバ保管以外にも、
DeepSeekに関する第三者調査は複数公開されています。
コードを書かせる用途と、
外部に公開するアプリのバックエンドで使う用途では判断が変わるので、
3点ぶん整理しました。
1. 過去の情報漏洩事件(2025年1月)
セキュリティ企業Wiz Researchが2025年1月29日に公開した調査で、
DeepSeekのClickHouseデータベースが認証なしで外部公開状態だったと判明しました。
流出が確認されたのはこの内容です。
- 100万行以上のログストリーム
- ユーザーのチャット履歴(プレーンテキスト)
- APIキー
- バックエンドの詳細・運用メタデータ
- 内部APIエンドポイント情報
サブドメインスキャンと非標準ポート(8123・9000)の探索で簡単に見つかったとWizは書いています。
DeepSeek側は通報を受けて1時間以内にデータベースを閉鎖しましたが、
「公開状態の期間に他にも見つけた人がいた可能性は否定できない」とWizのCTOは付け加えています。
V4-Pro(2026年4月24日発売)の前の事件です。
運用体制の現在地を測る材料として読むのが正確ですね。
2. データ保持・学習利用のオプトアウト
DeepSeekプライバシーポリシー(最終更新2026年2月10日)の主な記載は3点です。
- 保管場所:「収集した情報を中華人民共和国にある安全なサーバーに保存します」と明記
- 保持期間:「アカウントを持っている限り」保持。アカウント削除後の保持期間は本ポリシーには明示なし
- 学習利用の拒否権:
privacy@deepseek.comにメールするとモデル学習用途への個人データ利用を拒否できる
API経由で送信したコードやプロンプトが学習に使われるかどうかは、
本ポリシーで明示的にYes/Noとは書かれていません。
安全側で読むなら「デフォルトで学習対象になっている可能性あり」と扱い、
漏れて困るコードは送らない+オプトアウトメールを送る、
の二段構えが無難ですね。
3. AI安全性評価(jailbreak耐性)
米国NIST傘下のCenter for AI Standards and Innovation(CAISI)が2025年9月に発表したDeepSeek評価レポートと、
独立企業の調査が、
DeepSeekモデルはjailbreak(安全装置の突破)に弱いと指摘しています。
jailbreakというのは「悪意ある質問にAIが本来拒否すべき回答を出してしまう」状態を指す業界用語です。
| 評価元 | 内容 |
|---|---|
| NIST CAISI | DeepSeekで最も安全寄りのR1-0528でも、悪意ある要求の94%に応じてしまう(米国モデルの参照値は8%) |
| Qualys | DeepSeekがjailbreakテストの半数以上で失敗 |
| Palo Alto Unit42 | 「Deceptive Delight」等の手法で簡単にバイパス可能。マルウェア生成の悪用懸念あり |
arxiv論文(2025/06)はMoE構造の特性に原因を求めています。
攻撃プロンプトを「安全アライメント(AIの危険発言ブレーキ)が弱い小モデル」にルーティングしてしまう挙動が、
拒否の一貫性を壊しているという指摘です。
これはMoE構造を使うDeepSeek全般の話なので、
V4-Proでも同じ傾向が続く可能性は高いです(V4-Pro個別の独立評価は2026年4月時点で確認できていません)。
Claude Codeで個人が書くコード生成用途では直接の脅威は限定的ですが、
外部公開アプリのバックエンドにDeepSeekを置くと、
プロンプトインジェクションで意図しない出力を引き出されるリスクが米国系モデルより高い構造になります。
4. ここまでの安全度を踏まえた私の整理
「中国サーバ保管」セクションと合わせて見ると、判断はこの3層に分かれます。
- 個人のClaude Code利用(OSS・副業):そのまま使ってよさそう。漏れて困るデータが入っていない
- 業務コード・社内コードベース:会社規程確認+学習オプトアウトメール送信+V4世代でのインシデント情報の継続ウォッチ
- 外部公開アプリのバックエンドとして組み込む:jailbreak耐性で米国モデルに劣るので、入力サニタイズと出力フィルタを米国モデル運用時より厳しくかける前提で設計する
個人プロジェクトとして安く回す範囲なら、
これらの安全度議論はあまり刺さりません。
判断ラインはどの用途で使うかで変わるという話ですね。
結局、誰が使うべきツールなの?
引用と数字を整理した上で、私はこう読みました。
| こんな人 | 判断 | 理由 |
|---|---|---|
| 個人開発・副業エンジニア、OSS開発 | 5/5までに試す価値あり | 入力11.5分の1・出力28.7分の1。月のAPI代が桁で変わる可能性 |
| Claude Codeで毎日コードを書いている | Flash側に80%振る構成は要検討 | bswen.com事例で月$40→$15。Opus並み品質が必要なタスクだけClaudeに残す |
| 業務コード・顧客データを扱う仕事 | 会社規程の確認が先 | 個人情報保護委員会アラート、デジタル庁事務連絡が出ている |
| 新しい設計判断・セキュリティ要件高 | Opus/GPT-5.5を残す | bswen.com開発者がV4 Flashで限界を指摘。Proでも完全互換ではない |
| 50ファイル超の大規模書き直し | 1Mコンテキスト解放はメリット大 | [1m]サフィックスでOpus相当のレンジ。料金差を考えると検討価値あり |
個人的には「副業の小さなプロジェクトはDeepSeek、
業務コードはClaude」が現実解ですね。
割引期限の5/5まで。
1プロジェクトだけ試して、
API代がどこまで下がるか実測するのが一番早いです。
FAQ
Q. 75%オフはいつまで?
A. 2026年5月5日 15:59 UTC(日本時間 5月6日 0:59)までです。
出典はDeepSeek公式料金ページになります。
期限後は通常価格(入力$1.74・出力$3.48/1Mトークン)に戻ります。
それでもOpus 4.7(入力$5・出力$25)比で入力2.9分の1・出力7.2分の1の差が残ります。
Q. 入力料金と出力料金って何が違う?
A. AIに送る文字(プロンプト・コード・指示)にかかるのが入力料金、
AIから返ってくる文字にかかるのが出力料金です。
単位は100万トークンあたりの米ドル。
日本語1文字 ≒ 1〜2トークン。
コード自動生成のように長い回答が出る用途では出力料金の差が請求額を左右します。
Q. ANTHROPIC_API_KEYとANTHROPIC_AUTH_TOKENはどっちを使えばいい?
A. ANTHROPIC_AUTH_TOKENを使います。
DeepSeekはAnthropic純正ではなくゲートウェイ(中継サーバ)扱いになります。
Claude Code側がAUTH_TOKEN変数を要求します。API_KEYに書くと401(認証失敗)で弾かれるので注意してください。
出典はClaude Code公式 authentication ドキュメントです。
Q. [1m]サフィックスはDeepSeekには関係ない?
A. Claude Code側の機能です。
書いたサフィックスはClaude Codeが除去してからDeepSeekに送る仕様。
公式記述は「strips the suffix before sending the model ID to your provider」。
両モデル1M対応なので、
付与すればフルレンジ解放です。
Q. ベンチマーク数値(LiveCodeBench 93.5など)は普段使いでも出る?
A. 出ない可能性が高いです。
公式ベンチマークは推論モード「Think Max」での結果になります(出典: Hugging Face公式カード)。
日常運用は「Think High」相当なので、
期待値は1段下げます。
SWE-bench 80.6%は現実的な指標として参考になりますね。
Q. 業務で使っていい?
A. 会社の規程確認を先にしてください。
個人情報保護委員会は2点を明示しています。
「データは中華人民共和国に所在するサーバに保存」「中華人民共和国の法令が適用」と書かれています(ppc.go.jp)。
デジタル庁も2025年2月6日付で各府省庁に要請を出しています。
Q. 旧モデルID(deepseek-chat、deepseek-reasoner)はまだ使える?
A. 2026年7月24日 15:59 UTCで完全廃止予定になっています(DeepSeek公式リリースノート)。
移行先はdeepseek-v4-flashとdeepseek-v4-proです。
新規プロジェクトはV4系で開始するのが安全です。
このページに出てきた言葉
- API
- AIサービスを外部のプログラムから呼び出すための窓口。Claude CodeはClaudeのAPIを叩いて動いている
- トークン
- AIが文字を数える単位。日本語1文字がおおよそ1〜2トークン。料金は100万トークンあたりの米ドルで表示される
- 入力料金
- AIに送る文字(プロンプト)にかかる料金
- 出力料金
- AIから返ってくる文字にかかる料金。コード生成のような長い回答ではここが請求額の主役
- キャッシュヒット価格
- 同じプロンプトを再利用したときの割引料金。通常の1/10程度
- ゲートウェイ
- 2社のAPIの間に立つ中継サーバ。今回はDeepSeekがAnthropic互換のゲートウェイを公開して、Claude Codeをそのまま転用できるようにしている
- 環境変数
- OSやターミナルが起動時に読み込む設定値。
~/.zshrcや~/.bashrcに書く - 401エラー
- 認証失敗を示すHTTPエラーコード。APIキーが間違っているか、変数の設定先を間違えると出る
[1m]サフィックス- Claude Codeのモデル名末尾に付ける1Mトークン解放スイッチ。送信時にClaude Codeが除去してプロバイダに送る
- MoE(Mixture of Experts)
- 複数の小モデルを切り替えて使うアーキテクチャ。総パラメータは大きいが推論時は一部だけ動かすので高速
- SWE-bench
- 実際のGitHub Issueをモデルに解かせるベンチマーク。コーディング能力の指標として標準的
- jailbreak(ジェイルブレイク)
- 悪意ある質問にAIが本来拒否すべき回答を出してしまう状態。安全装置の突破を指す業界用語
- プロンプトインジェクション
- 外部入力に細工した文字列を混ぜてAIの動作を乗っ取る攻撃。外部公開アプリのバックエンドAIで主に問題になる
参考リンク
- DeepSeek公式 Claude Code統合ガイド: api-docs.deepseek.com/guides/coding_agents
- DeepSeek公式料金ページ: api-docs.deepseek.com/quick_start/pricing
- DeepSeek公式 Anthropic API互換ガイド: api-docs.deepseek.com/guides/anthropic_api
- Anthropic公式 Claude料金ページ: platform.claude.com/docs/en/about-claude/pricing
- Claude Code公式 model-config: code.claude.com/docs/en/model-config
- Hugging Face DeepSeek-V4-Pro: huggingface.co
- 個人情報保護委員会 DeepSeek公式アラート: ppc.go.jp
- VentureBeat 1/6th the cost記事: venturebeat.com
- simonwillison.net DeepSeek V4ノート: simonwillison.net
- bswen.com 切替実測: docs.bswen.com
- Promptfoo 検閲調査: promptfoo.dev
- buildfastwithai ベンチマーク詳細: buildfastwithai.com
- Wiz Research DeepSeek漏洩調査: wiz.io
- DeepSeek プライバシーポリシー: cdn.deepseek.com
- NIST CAISI DeepSeek評価レポート: nist.gov
- Qualys jailbreakテスト結果: blog.qualys.com
- Palo Alto Unit42 jailbreak技法: unit42.paloaltonetworks.com
- arxiv MoE構造のjailbreak脆弱性: arxiv.org/abs/2506.18543
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。