AI活用全般

Claude Opus 4.7は英語プロンプトで実質4割値上げ|tokenizer変更の実測1.46倍とSonnet4.6/Haiku4.5併用の3段階対策

この記事の要点(3行)

  • Claude Opus 4.7は入力$5/出力$25/100万トークンでOpus 4.6と同額。per-token単価は据え置き。
  • ただしSimon Willisonの計測では、同じ英語テキストで消費トークンが5,039→7,335(1.46倍)に増えた。請求額ベースで約4割増。
  • 影響はPro/Max/API従量で全く別。対策は「Opus 4.7は難問だけ」「日常はSonnet 4.6」「長文はHaiku 4.5で先に圧縮」の3段階使い分け。

Claude Opus 4.7のper-token単価は、
入力$5/出力$25/100万トークンでOpus 4.6から変わっていない(Anthropic公式モデル一覧)。
ただ、
同じ英語テキストをOpus 4.6と4.7に通すと、
消費トークン数が1.46倍に増えることをSimon Willisonが計測で示している(Claude Token Counter, now with model comparisons, 2026-04-20)。
単価据え置きで請求額4割増。
これが今回の主題。

公式の表現は「1.0〜1.35倍」と控えめ。
実測は1.46倍。
このギャップをどう読むかで、
Pro $20の人とAPI従量の人とで取るべき行動が変わってきます。
順に整理します。

Claude Opus 4.7の「実質値上げ」はどこから来るのか

Anthropicは2026年4月16日にClaude Opus 4.7をリリースした。
料金表は動いていない。
入力$5/出力$25/100万トークンで、
Opus 4.6の単価をそのまま引き継いでいる。
にもかかわらず請求額だけが上がる、
という現象が起きている。
原因は新しいtokenizer。

Anthropic公式はこう書いている。

Claude Opus 4.7 uses a new tokenizer, contributing to its improved performance on a wide range of tasks. This new tokenizer may use roughly 1x to 1.35x as many tokens when processing text compared to previous models (up to ~35% more, varying by content).

出典: Anthropic公式 What's new in Claude 4.7 / Breaking changes

「may use」「up to ~35% more」という言い回し。
歯切れが悪い。
要するに、
同じテキストを入れてもトークン数の数え方が変わったので、
コンテンツによっては最大35%ほど膨らむ、
という説明です。
「単価」は動かしていないが、
同じ仕事にぶつけるトークンの量が増える。
結果、
請求額は上がる。

公式Tooltipの数字がこの話の分かりやすい裏付けになる。
Opus 4.6の1Mトークン枠は約75万語/約340万Unicode文字。
Opus 4.7の1Mトークン枠は約55.5万語/約250万Unicode文字(Anthropic公式モデル比較表Tooltip)。
**同じ「1Mトークン」でも詰め込める語数が約26%減った**、
というのが事実ベースの話。

公式「1.0〜1.35倍」とSimon Willison実測「1.46倍」のギャップ

ここが記事の芯。
Anthropic公式は「最大1.35倍」と書いている。
Simon Willisonは実測で1.46倍を出している。
数字は寄っているようで、
ちゃんとズレている。

Willisonの計測はAnthropic公式のトークンカウントAPIを叩いて、
Opus 4.6と4.7の両方でトークン数を比較する自作ツールでやっている。
Claude Token Counterはソース公開済みで、
同じ数字を誰でも再現できる形になっている。
測定テキストも、
使い捨ての小細工ではなく「Opus 4.7のシステムプロンプト本文」を素材にしている。

実測値をまとめるとこうなります。

素材Opus 4.6Opus 4.7倍率
英語システムプロンプト本文5,039トークン7,335トークン1.46倍
高解像度PNG(3,456×2,234px/3.7MB)1,578トークン4,744トークン3.01倍
低解像度PNG(682×318px)310トークン314トークン1.01倍
テキスト重点PDF(15MB/30ページ)56,482トークン60,934トークン1.08倍

出典: Simon Willison, Claude Token Counter, now with model comparisons (2026-04-20)

Willison本人のコメントがまた冷静。
per-token単価は変わらないが、
同じテキストで約40%高くなる見込み、
と淡々と書いている。
煽らない。
煽らないのに数字だけで効く。

もう一つ、
言語別の差を無視すると記事が嘘になる。
Bill ChambersのTokenomicsリーダーボードによれば、
日本語・中国語・韓国語・絵文字は1.005〜1.07倍。
英語とコードは1.20〜1.47倍。
全入力の平均で38.6%増。
英語メイン・コード中心のユーザーだけが1.4倍級を食らい、
日本語メインの人は影響がかなり小さい

というのが正確な姿です(GIGAZINEでも同ツールの結果が紹介されている)。

つまりSimon Willisonの1.46倍は「英語システムプロンプトという最も影響を受けやすい条件での数字」。
公式の「1.0〜1.35倍」は「幅広いコンテンツをならした範囲」。
両方とも嘘は言っていない。
だがAPI大口・コーディングエージェント運用のように英語プロンプトが常時走っている使い方では、
公式レンジの上を超えて1.4倍級まで振れる。
私の見立てでは、
ここが今回の「実質値上げ」の正体です。

Pro $20/Max $100/API従量、それぞれへの影響は?

同じ「1.46倍」の話でも、
どのプランで使っているかで現金ダメージの出方はまるで別物。
ここを切り分けないと対策が空振る。

プラン月額直接の料金増体感ダメージ主な影響
Claude Pro$20なし5時間で約45メッセージの上限に早く達する
Claude Max 5x$100なし中〜大約225メッセージ/5時間。20%消費でSonnet 4.6に自動切替
Claude Max 20x$200なし小〜中約900メッセージ/5時間。50%消費でSonnet 4.6に自動切替
API従量従量あり同じ仕事で請求額が最大1.46倍

5時間上限の具体数値出典: Zenken AI「Claude使用制限まとめ」(Anthropic公式発表ではなく、
コミュニティ集計値を参照)。
料金はAnthropic公式

Claude Pro $20ユーザー:料金は動かない。上限が早く枯れる

定額プランなので月$20は変わらない。
ただ5時間ローリングウィンドウのメッセージ上限(約45回)に、
これまでより早く到達する。
Redditではリリース初日に3問で枯れたとの声も出ている。

体感での「値上げ」は確かにある。
ただ請求書は動かない。
ここを分けて考えると冷静になれる。

Max $100/$200:Sonnet 4.6への自動切替で実害は限定的

Max 5xは20%消費、
Max 20xは50%消費で自動的にSonnet 4.6に切り替わる仕様。
Sonnet 4.6は旧tokenizerのままなのでトークン肥大しない。
結果、
Opus 4.7の消費増は「前半に集中して後半はSonnet」という形で部分的に吸収される。

API従量:ここだけ現金ダメージが直撃

定額の盾がない。
同じ仕事で請求額がそのまま1.46倍になる。
Finoutのコスト試算によれば、
コーディングエージェント(1M入力/200K出力/日)で月$300→$405(+$105/月、
+35%)。
自律型SWEエージェント(10M入力/2M出力)で月$3,000→$4,050(Finout, The real cost story behind Claude Opus 4.7)。

さらに本番ワークロード(1億トークン/日)で1日$500→$675に跳ねた事例も報告されている(Startup Fortune)。
GitHub Copilotは4月末までOpus 4.7に7.5xのプレミアム倍率を適用していて、
プラットフォーム側も負担を素通しせず、
ユーザーに転嫁している。
「per-token据え置き」という公式メッセージと、
請求書の現実は別物

というのがAPIユーザーの側の肌感覚です。

値上げの代償としてOpus 4.7が得たもの

ここまで「実質値上げ」の側ばかり書いたので、
対価側も1ブロックで整理しておきます。
Anthropic自身は「新tokenizerは性能向上に寄与している」と説明していて、
ベンチマークは実際伸びている。

  • SWE-bench Verified: 43.7%(Opus 4.6の37.5%から向上、Anthropic公式
  • SWE-bench Pro: 64.3%(同上)
  • CursorBench: 70%(Opus 4.6の58%から向上)
  • 画像解像度上限: 2,576px/3.75MPに拡大(旧1,568px/1.15MPから約3.3倍)
  • 新しいeffortレベル`xhigh`追加、1:1ピクセル座標マッピング対応
  • コンテキストウィンドウ1Mトークン(ただし語数換算では旧750k→新555k)

Y CombinatorのGarry TanはOpenClawプロジェクトでOpus 4.7を採用中と表明していて、
Cursorのデザイナー(Ryo Lu氏)もプランニング用途で使い始めたとしている(dnyuz)。
性能面の評価は一定ある。

一方で、
Hacker NewsのClaude 4.7 tokenizerスレッド(674ポイント/470コメント)では「Opus 4.7はpre-nerf版の4.6を新モデルとして化粧直ししただけで、
tokenizer変更がstealth price increaseとして機能している」という指摘も出ている。
Redditの「serious regression」投稿は2,300アップボート。
Xの@hetmehtaaの「4.6より改善とは言えない」ポストは14,000いいね。
性能向上は事実、
ただしコスト増と釣り合っているかは別論点

という空気です。

Opus 4.7の請求額を抑える3段階の使い分け

単純に「Opus 4.7を使うな」ではもったいない。
性能向上の実体もあるので、
仕事の重みで使うモデルを変えるのが現実的な答えになります。
私が整理するとこうなる。

STEP1|重要な難問だけOpus 4.7に回す

コードベース全体の設計判断、
複雑なリファクタ、
長いエージェントタスクなど、
SWE-bench級の難度が要るところだけ。
チャット全部をOpus 4.7にぶつけると、
per-token単価×1.46倍の合わせ技で請求額がえげつなくなる。
AI総合研究所も「難問だけOpus 4.7、
それ以外はSonnet/Haikuという使い分けで品質と単価の両立が可能」としている(AI総合研究所)。

STEP2|日常の会話・コーディングはSonnet 4.6に寄せる

Sonnet 4.6は旧tokenizerのままで、
入力$3/出力$15/100万トークン。
Opus比で単価が40%安く、
トークン肥大もない。
二重の意味で安い。
公式モデル一覧のTooltipでも「~750k words/~3.4M unicode characters」と明記されていて、
Opus 4.7とのtokenizerの違いは明示されている。

Finoutの試算でも、
同一キャッシュ条件のRAGワークロードでSonnet 4.6=月$392/Opus 4.7=月$652と、
Sonnetが約40%安い。
日常タスクの受け皿はSonnetで確定。

STEP3|長文・大量データはHaiku 4.5で先に圧縮

Haiku 4.5も旧tokenizer継承、
入力$1/出力$5/100万トークン。
Opus 4.7の1/5の単価。
長文議事録、
大量PDF、
ログなどを先にHaikuで要約→Opus 4.7にはその圧縮結果だけ渡す、
という2段構えにすると、
高い側(Opus 4.7)に流すトークン数が減らせる。
Opus 4.7のtokenizerに通すテキストを絞り込むのが、
このtokenizer世代でのコスト最適化の本筋です。

補助策: 画像リサイズとToken Counterでの事前確認

  • 画像は長辺1,500px前後にリサイズしてから送る(Simon Willison計測で高解像度PNGが3.01倍になる事実に対する直接の対抗策)
  • Claude Token Counterで送信前にOpus 4.6と4.7のトークン数を比較確認。公式APIベースなので誤差が少ない
  • Anthropic公式が推奨している通り、`max_tokens`パラメータにheadroomを持たせて、compaction triggerに余裕を足す
  • プロンプトキャッシュは最大90%オフ、バッチ処理は50%オフを使い倒す(Anthropic公式料金ページ

Opus 4.7の料金運用で知っておきたい注意点

記事の角度が「実質値上げ」なので、反対側の注意もちゃんと置いておきます。

1.46倍は英語プロンプトという最も強く出る条件の数字
日本語メインの使い方なら1.005〜1.07倍にとどまる可能性が高い。
翻訳・コード生成を大量に回すAPIユーザーほど影響が大きく、
日本語チャットだけのPro定額ユーザーなら請求書は動かない。
自分の使い方がどちら寄りかで、
この記事から持ち帰る温度は変わる

Anthropic公式の「1.0〜1.35倍」と実測「1.46倍」が乖離する理由も、
結局は測定条件。
Anthropicは幅広いコンテンツをならしてのレンジ、
Simon Willisonは英語システムプロンプトでの単点測定。
どちらも嘘ではない。
ただし英語コーディングエージェント用途では、
公式レンジの外に飛ぶことが実測として確認された、
という読み方が事実に近い。

SWE-benchのスコアにも注意が要ります。
Anthropic公式発表は43.7%(Verified)/64.3%(Pro)、
第三者リーダーボードでは87.6%という数字も出回っているが、
これはベンチマーク亜種(Verified/Pro/独自scaffold)の違いで、
単純比較できない。
TokenMixThe Next Webで数字が違って見えるのはこの事情。

最後に。
5時間ローリングウィンドウの具体数値(Pro 45回/Max 5x 225回/Max 20x 900回)はAnthropic公式発表ではなく、
ユーザーコミュニティの集計値をまとめたZenken AIの記事が出典。
公式は明確な数値を出していない。
読者側が「だいたいこのくらい」の当たりをつける目安として扱うのが適切です。

FAQ

Q1. 日本語ユーザーでも請求額は1.46倍になりますか?

なりません。
Tokenomicsの計測では日本語・中国語・韓国語・絵文字のトークン増加率は1.005〜1.07倍。
1.46倍という数字は英語システムプロンプトでの実測値で、
英語・コード中心のユーザーに強く出る数字です。
日本語チャット中心のPro $20ユーザーは、
トークン消費の観点では実質ほぼ影響がない水準。

Q2. Claude Pro $20プランの料金は上がりますか?

定額プランなので月額$20は変わりません。
ただし、
Opus 4.7を使うと5時間ローリングウィンドウのメッセージ上限(約45回/5時間と集計されている)に早く到達します。
リリース初日に3問で上限に当たったとの報告も出ています(dnyuz, Claude-lash is here)。
請求書は動かないが体感は厳しくなる、
という形。

Q3. Sonnet 4.6やHaiku 4.5も同じように値上げされていますか?

されていません。
Anthropic公式モデル一覧のTooltipで、
Sonnet 4.6とHaiku 4.5のコンテキストは従来通り「~750k words/~3.4M unicode characters」と記載されており、
tokenizerは旧方式のまま。
新tokenizerはOpus 4.7のみです。
日常タスクをSonnet/Haikuに寄せれば、
tokenizer変更起因のコスト増は回避できます。

Q4. Opus 4.7の性能向上は値上げに見合っていますか?

用途次第。
SWE-bench Verified 43.7%(4.6は37.5%)、
CursorBench 70%(4.6は58%)と、
コード生成・エージェント用途での向上は公式に出ています。
ただしHacker News(674ポイント/470コメント)やReddit「serious regression」(2,300アップボート)のように「tokenizer変更がstealth price increaseとして機能している」との批判も根強い。
難問処理の速度・精度で元が取れる用途は見合う、
日常チャット用途は見合いにくい

という分け方が現実的です。

Q5. API利用者はすぐに何を変えればいいですか?

まずClaude Token Counterで、
自分の主要プロンプトがOpus 4.6→4.7でどの程度トークン膨らむかを実測すること。
その上で、
重要タスクだけOpus 4.7、
日常はSonnet 4.6、
長文要約はHaiku 4.5で先に圧縮、
の3段階に切り替える。
Anthropic公式はさらに`max_tokens`のheadroomを広げる運用も推奨しています。

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-

← 戻る