1M Context(ワンエムコンテキスト)

仕組み・概念
1M Context
ワンエムコンテキスト
Claudeが一度の会話で覚えていられる文章量の上限を、標準の200Kトークンから100万トークンまで5倍に拡張する仕組み。日本語に直すとおおむね250万〜340万文字、長編小説5〜7冊ぶんが一度に入る規模感で、Opus 4.7 なら約250万文字、Sonnet 4.6 なら約340万文字まで載る。中規模コードベース全体や長期ロードマップ文書を分割せず一度に読ませる用途で使う

Claude CodeまたはClaude.aiを日常的に使っている人向け

中規模プロジェクト全体を横断で読ませたい時、3ヶ月ぶんの議事録セットや数十本の文書を分割せず一度に要約させたい時、長期エージェント実行で会話履歴を保ったまま走らせたい時に、対応モデル Opus 4.7 / Opus 4.6 / Sonnet 4.6 と <code>[1m]</code> 付きモデルエイリアスを指定して切り替える

Claudeに「このプロジェクト全部読んで、依存の不整合を見つけて」と頼みたい時、普段の会話だとファイルがちょっと膨らむと「これ以上は入りません」と弾かれます。原因はコンテキストウィンドウという、Claudeが一度に覚えていられる文章量の上限。標準は20万トークンです。

1M Contextはこの上限を5倍に拡張し、100万トークンまで一度に読めるようにする仕組み。日本語に直すとおおむね250万〜340万文字、長編小説で言えば5〜7冊ぶんが一度に入る規模感です。Opus 4.7 はだいたい250万文字、Sonnet 4.6 は340万文字くらいで、モデルごとに上限が少しずれます。

噛み砕くと、Claudeの机を5倍に広げる切り替え

Claudeを「机の上に資料を広げて回答を作る人」だと思ってください。普段の机のサイズが200K。乗せきれないファイルは「ここから先は見えません」と返ってきます。

1M Contextは、この机をいきなり5倍の広さに張り替えるイメージ。中規模プロジェクトの全ファイル、長期ロードマップ文書、議事録3ヶ月ぶんを縮約せずそのまま乗せて、横断で見渡せるようになります。

ただし大きい机ならいい仕事をするとは限りません。資料を山積みにすると、肝心の1ページを探すのに手間取って雑な回答が増える。これは公式docsがcontext rotとして明記している現象です。

大事な前提:1Mが効くのは特定のモデルだけ

2026年5月時点で、1M Contextに対応しているのは Claude Opus 4.7 / Opus 4.6 / Sonnet 4.6 の3モデル。Sonnet 4.5 や Haiku 4.5 を選んでいる間は、いくら設定をいじっても机は200Kのままです。

Claude Code側だと、モデル名の後ろに [1m] がついた専用エイリアスを指定する必要があります。普段「sonnet」と打って使っているなら、それは200K側の sonnet です。

「中規模プロジェクト100ファイルを丸ごと読ませる」を例に、実際の手順

ステップ1:今のモデルが200Kか1Mか確認する

Claude Codeのセッションで /status を叩くと、現在のモデル名が出ます。sonnetopus とだけ表示されているなら200K。[1m] がついていれば1M。

$ /status
Model: sonnet
Context: 200K tokens

ここで気付かずに「100ファイル読んで」とお願いすると、途中で「このメッセージは長すぎます」と弾かれます。

ステップ2:1Mに切り替える

セッション中に切り替えるなら /model コマンドを使います。

$ /model sonnet[1m]
Switched to: sonnet[1m]
Context: 1M tokens

起動時から1Mで始めたいなら、起動コマンドの後ろに --model sonnet[1m] を書き足す方法もあります。

ステップ3:プロジェクト全体を読ませる

「世界の魚を紹介するサイト」のソース一式、仮に Next.js で組んだ100ファイル・合計50KB相当を題材にします。プロジェクトのルートで claude を起動した状態でお願いします。

"src/ 以下を全部読んで、
import先のファイルが存在しない箇所と、
どこからもimportされていない関数を全部リストアップして"

200Kのままだとここで「ファイルが多すぎて全部は読めない、優先度の高いものを教えて」と返ってくる場面。1Mだとそのまま走り出します。

ステップ4:応答が来るまで待つ

1Mの会話は応答が遅くなります。私が試した感覚だと、200Kなら15秒で返ってくる質問が1Mだと45秒かかる、くらいの体感差。Claudeが机に乗せた100ファイルを全部見渡してから回答を組み立てるので、当然と言えば当然です。

ここで初心者がやりがちな勘違いがあります。「1M入るなら全ファイル貼っておけば毎回精度が上がる」は間違い。山積みにすると context rot で精度が落ちます。

ステップ5:必要なら200Kに戻す

「ここから先は普通の修正作業だけ」と切り替わったら、 /model sonnet で200Kに戻します。1Mのまま雑談していると、料金面でも応答速度でも損です。

$ /model sonnet
Switched to: sonnet
Context: 200K tokens

ステップ6:プランによっては自動で1Mが効いている場合もある

Max / Team / Enterprise プランで Opus を選んでいる場合、追加設定なしで1Mが自動有効化されていると公式docsに書いてあります。opus[1m] を明示しなくても、 opus だけで1Mになる。Sonnet で1Mを使うときは extra usage 課金が必要です。

Pro プランの場合は Opus / Sonnet どちらも extra usage 扱い。API直叩きや pay-as-you-go なら両方フルアクセスです。

つまり 1M Context は何をしてくれるのか

  • やってくれる:100万トークンぶんの文章・コードを一度に「分割せず」読んで横断質問に答える
  • やってくれる:中規模コードベース全体を一度に解析する。公式blogでは「75,000行以上のコード」が例に挙がる規模感
  • やってくれる:数十本のリサーチペーパー、長期ロードマップ、長尺の議事録セットを横断要約する
  • やってくれない:context rotから自動で守ってくれない。山積みにすれば精度は落ちる
  • やってくれない:1M非対応モデルで1Mに拡張する。Sonnet 4.5、Haiku 4.5などは200K固定
  • 意味が薄い場面:普段の200KB以下のソース修正、単発の質問、雑談。応答は遅くなるし、Sonnet 1Mなら追加料金もかかる

使いどころ3シナリオ(具体題材で再現)

シナリオ1:料理ブログ100記事のリンク切れ一括検査

料理ブログを Next.js と microCMS で運用していて、microCMS から取得している100記事ぶんのMarkdownを丸ごと読ませて、内部リンク切れと使われていない画像URLを一覧化させる場面。200Kでは「30記事ずつに分割して」と頼む必要があるけど、1Mなら一度に全件突っ込める。横断で「同じ古い文字列を使い回している記事はどれ」みたいな質問もそのまま通ります。

シナリオ2:OSSプロジェクトを git clone した直後、全体構造を把握したい

知らないOSSを自分のパソコンにコピーしてきて、まず「このプロジェクトが何をしているのか3行で」と聞きたい場面。中規模OSS、ファイル数100〜300くらいのものだと、200Kでは README と主要フォルダだけ読んで推測する話になります。1Mに切り替えてから「src/ と tests/ を両方読んで、エントリポイントから依存ツリーを書いて」と頼むと、推測ベースじゃない回答が返ってくる。

シナリオ3:3ヶ月ぶんの議事録から経営判断の根拠を再構成

毎週ミーティングの議事録を3ヶ月ためてあって、合計で40万字くらい。「この四半期で意思決定が変わったポイントを時系列で並べて」と聞きたい時、200Kだと2回に分けて読ませて自分で繋ぎ合わせる必要があります。1Mに切り替えれば全部読んだ上で「2026年2月の方針転換は、1月のXX議事録のYY発言が起点になっている」みたいな根拠付き回答に届く。

初心者が踏みやすい落とし穴

  • Pro プランで1Mが標準だと思い込む。Pro は Opus も Sonnet も extra usage 扱い。Max / Team / Enterprise でないと「Opus自動1M」の恩恵は受けられない
  • sonnet のまま長文を貼って弾かれる[1m] 付きエイリアスに切り替えないと200Kのまま。/model で確認する癖をつける
  • 1Mあるからって全ファイル貼り続ける。context rot で精度が落ちる、応答が遅くなる、Sonnet 1Mなら追加課金が積み上がる。必要な範囲を狙って入れる
  • Haiku を1Mで使おうとする。Haiku 4.5 は200Kまで。1M対応は Opus 4.7 / Opus 4.6 / Sonnet 4.6 の3つだけ
  • opusplanで1Mが効くと思う。公式docsに「plan-mode Opus フェーズは標準200K で動く」と明記されている。opusplan は1M拡張の対象外
  • API側のレート制限と料金を確認しない。Anthropic API の pay-as-you-go は 1M Context にフルアクセスできます。以前は Tier 4 以上の利用契約が必要だった経緯があるけど、現在は解除済み。ただし API 利用の場合、超過したトークンぶんがそのまま per-token 課金として積み上がるので、大量に流すと料金がかさむ。最新の制限と料金は公式 rate limits / pricing ページで確認すること
  • 切り替え後、過去の会話履歴をそのまま続ける/model 切り替え時、Claude Codeは「次の応答が会話履歴を全部読み直す」旨を確認してくる場面があります。長い会話で切り替えると、その分だけ料金が一気に乗る
  • 「1Mあれば賢くなる」と勘違いする。机が広がっただけで、推論能力そのものは変わりません。Opus 4.7 を200Kで使う方が、Sonnet 4.6 を1Mで使うより賢い場面は普通にある

書き方

/model sonnet[1m]
# または起動時:
claude --model opus[1m]
# モデル名直書きも可:
/model claude-opus-4-7[1m]

やってみるとこうなる

入力

/model sonnet[1m]

出力例

Switched to: sonnet[1m]
Context: 1M tokens

このページに出てきた言葉

コンテキストウィンドウ
Claudeが一度の会話で覚えていられる文章量の上限。これを超えるとそれ以前の会話が落ちるか、エラーで弾かれる
トークン
Claudeが文字を数える単位。日本語は1.5〜2文字で1トークン、英語は単語1個でだいたい1トークン
200K / 1M
20万トークン / 100万トークン。1Mは200Kの5倍で、日本語でおおむね250万〜340万文字ぶん。Opus 4.7 で約250万文字、Sonnet 4.6 で約340万文字、長編小説5〜7冊ぶんが入る規模感
context rot
会話を盛り込みすぎてClaudeの応答精度が下がる現象。公式docsに「accuracy and recall degrade」と明記されている
モデル
Claudeの脳みそのバージョン違い。Opus は賢いけど遅い、Sonnet はバランス、Haiku は速いの3系統がある
エイリアス
モデルの短い別名。Claude Codeでは <code>opus</code> <code>sonnet</code> <code>opus[1m]</code> のような短縮名で長いモデルIDを呼び出せる
extra usage
月額プランの基本枠を超えた分の追加課金。Anthropic公式サポート記事で詳細が説明されている

関連項目

公式ドキュメント

https://claude.com/blog/1m-context

-

← 戻る