AI活用全般

Claude全モデル進化家系図|Claude 1→Opus 4.7を4つの転換点で読むPro/Max/API使い分け地図

この記事の結論(3文)

  • Claude 1から3年で「テキストを返すだけのAI」が「16台が協調してLinuxカーネルをコンパイルするAI」になった。
  • 進化の節目は4つ。2024-06の3.5 Sonnet下克上、2025-02の3.7 Sonnet拡張思考、2026-02の4.6 Agent Teams、2026-04の4.7(SWE-bench 87.6%+Vision 98.5%+xhigh effort)。
  • ただしOpus 4.7はMRCR @1Mが78.3%→32.2%に後退、新トークナイザーで実コスト最大35%増という注意点あり。家系図で見ると「どのモデルを何に使うか」が逆に明確になる。

Claudeを1年以上触っている人ほど、
過去世代の記憶が曖昧になりがちだ。
私もそう。
Opus 4.7の話をしようとして、
「そういえば3.7 Sonnetっていつだっけ」「4.5と4.6の違いってどこだっけ」と手が止まる瞬間が増えてきました。

この記事はClaude Pro / Max / Teamを使っている人、
Claude Codeを触ったことがある人、
APIでモデルを切り替えて使っている人を想定して書きます。
claude.ai / Claude Code / APIのどの経路で読んでも使えるように、
判断の分岐が経路で変わる箇所(特に「どのモデルが今使えるか」)は経路別に分けて書きます。

そこで一度、
Claude 1から最新のOpus 4.7までを1枚の家系図として並べ直します。
個人的にはこれが今いちばんやる価値のある整理です。
なぜならClaudeの進化は、
毎月の細かい差分を追いかけるより、
4つの転換点で語った方が圧倒的に理解が早いからです。

先に家系図の骨格を置きます。

Claudeの進化を4つの転換点で見ると何が変わったのか

ざっくりと、
この3年でClaudeは4回「性質が変わった」。
バージョン番号が上がった時ではなく、
使う側の前提が変わった瞬間を転換点としてピックアップしました。

転換点 モデル 日付 何が変わったか
第1 Claude 3.5 Sonnet 2024-06-20 「高いモデル=最強」という常識の崩壊。安いモデルが最上位を超えた
第2 Claude 3.7 Sonnet 2025-02-24 考える時間で賢さが変わる。業界初のハイブリッド推論
第3 Claude Opus 4.6 2026-02-05 1台のモデルから、複数台が協調するチームへ
第4 Claude Opus 4.7 2026-04-16 精度と自律性の両立。SWE-bench 87.6%+Vision 98.5%+xhigh effort

この4点を押さえておくと、
残りのモデル(3.5 Sonnet v2、
4 / 4.1 / 4.5、
Sonnet 4.5 / 4.6、
Haiku 4.5など)はすべて「この4点の間を埋める補正」として位置づけられます。
これ、
家系図としてはめちゃくちゃ扱いやすい構造です。

第0章:Claude 1〜2.1の時代に何があったのか

まず前史。
Claude 1は2023年3月にAPI限定で出ています。
一般ユーザーは触れませんでした。
この時点ですでにAnthropicはConstitutional AIという独自路線を明示していて、
AIが自分で原則を判断して応答する設計を採用しています。
ここが後のASL-3まで続く安全性重視の出発点。

2023年7月のClaude 2で初めてclaude.aiが一般公開。
コンテキストは100Kトークンで、
当時のGPT-4が8K〜32Kだったので桁違いでした。
ここはもっと語られていい歴史だと私は思う。

2023年11月のClaude 2.1でコンテキストは200Kトークン(約500ページ相当)に倍増、
ハルシネーションを約2倍削減、
β版のTool Useが登場。
外部APIと連携する入り口はここで開きます。

正直、
この時期のClaudeは「長文が読めるけど、
対話はChatGPTの方が自然」という評価が主流でした。
潮目が変わるのは2024年に入ってからです。

転換点1:2024-06 Claude 3.5 Sonnetで「高いモデル=最強」が崩れた

2024年3月にHaiku/Sonnet/OpusのClaude 3ファミリーが出て、
Vision(画像入力)対応が開始。
Claude 3 OpusはLMSYS Chatbot Arenaで一時的にトップを取ります。
ここまでは「順当な拡大」でした。

ひっくり返ったのは2024年6月20日。
Claude 3.5 Sonnetの登場です。

Claude 3.5 Sonnet operates at twice the speed of Claude 3 Opus. (中略) we're releasing Claude 3.5 Sonnet to all users for free on Claude.ai and the Claude iOS app.
出典: Anthropic公式「Introducing Claude 3.5 Sonnet」

ポイントは価格。
入力$3 / 出力$15(1Mトークン)というSonnetクラスの料金で、
当時最強だったOpus 3の約1/5。
それでいて多くのベンチマークでOpus 3を超えました。
内部のagentic coding評価ではSonnetが64%解決、
Opus 3は38%。
真ん中のモデルが上位を殴り倒した瞬間です。

同時にArtifactsが登場。
チャット欄の外にコードやSVGのリアルタイムプレビューが出るあの機能。
ここで「AIと対話する」から「AIと一緒に成果物を作る」にUXが切り替わった。
2024年10月のv2ではComputer Use(β)も追加。
Asana・Canva・Replitが即採用した、
あれです。

第1転換点の本質は、
「価格×性能」の常識が崩れ、
モデルを段階で使い分ける運用が一般化した
ことだ。
個人的にはここが家系図で一番エグい分岐点。

転換点2:2025-02 Claude 3.7 Sonnetで「考える時間」が賢さの変数になった

2025年2月24日のClaude 3.7 Sonnet。
ここからExtended Thinking(拡張思考)が入ります。
業界初のハイブリッド推論モデル。
Thinking Budgetでモデルに考えさせるトークン数を指定できるようになりました。

Claude 3.7 Sonnet is our most intelligent model to date and the first hybrid reasoning model on the market. (中略) users can choose when they want the model to answer normally and when they want it to think longer before answering.
出典: Anthropic公式「Claude 3.7 Sonnet and Claude Code」

SWE-bench Verifiedはカスタムscaffoldで70.3%
標準モードでも62.3%。
同時に最大出力が128Kトークンへ拡張(従来の15倍以上)。
ここから「Claudeにコードを書かせる」運用が本格化します。

そして同日リリースのClaude Code(プレビュー)
ターミナルから直接ファイル操作・テスト実行・Git操作を委ねる仕組み。
これ、
当時は「ちょっと大げさでは」という声もありましたが、
今の視点から振り返ると4.6のAgent Teamsや4.7の`/ultrareview`につながる原点だ。

考える時間を伸ばすと答えが変わる。
今では当たり前。
2025年2月時点で実運用に落ちた最初のモデルがClaude 3.7 Sonnetでした。
ここが「Claude=コーディングの本命」の評価が定着した起点

間に入る2025年5月のClaude 4(Sonnet 4 + Opus 4)では、
MCP Connectors・Files API・コード実行が導入。
Opus 4はAnthropic史上初のASL-3分類となりました。
2025年9月のSonnet 4.5はSWE-bench Verified77.2%(当時世界最高)、
Replitエラー率0%、
30時間以上のフォーカス持続、
Anthropic公式「Claude for Chrome」ブラウザ拡張の搭載モデルとして発表されました。
同年11月のOpus 4.5では前世代比67%の値下げ。
2026年2月のSonnet 4.6はSWE-bench Verified79.6%
コンテキスト1M(beta)
Computer Use 94%を記録。
ここまで、
転換点2の延長線上の改良が続きます。

転換点3:2026-02 Claude Opus 4.6で「1台のモデル」から「チーム」へ

2026年2月5日のClaude Opus 4.6。ここで性質が変わる。

Claude Opus 4.6 is the strongest model Anthropic has shipped. It takes complicated requests and actually follows through, breaking them into concrete steps.
— Sarah Sachs(Notion AI Lead)
出典: Anthropic公式「Introducing Claude Opus 4.6」

注目点は4つ。

  • 1Mトークンコンテキスト(Opus初。beta段階では200K超がプレミアム料金)
  • Adaptive Thinking:思考量を自動調整、effortパラメータ(low/medium/high/max)で手動制御も可能
  • Agent Teams:複数のClaudeエージェントが協調するresearch preview
  • ARC-AGI-2:68.8%(前世代37.6%から83%向上、max effort + 120k thinking budget)

象徴的なのはNicholas Carlini(Anthropic研究者)の報告。
Opus 4.6を16インスタンスDocker分離で並列起動、
約2週間・約2,000 Claude Codeセッション・API費用$20,000でRust製100,000行のCコンパイラを完成させた

Linux 6.9をx86 / ARM / RISC-V でコンパイルし、
GCC torture testで99%パス、
PostgreSQL / SQLite / Redis / FFmpeg / Doomもビルド成功(出典: anthropics/claudes-c-compiler
Anthropic Engineering「Building a C compiler with Claude」)。
冷静に考えるとやばい絵面だ。
1台のAIと対話する時代から、
複数AIを走らせて統合する時代への切り替わり。

METRの50%タスク完了時間は「14.5時間(95%信頼区間 6〜98時間、
ベンチマーク自体がサチュレート気味とMETR側が注記)」と報告されている数値(出典: METR公式Xアカウント @METR_Evals)。
Opus 4.5の4時間49分はMETR公式で確認できる。
家系図では数字そのものより「長時間の自律実行に耐えるモデルへ踏み込んだ」という定性の象徴として読むのが筋が通る。

第3転換点の本質は、
Claudeが「1つの強いモデル」ではなく「協調するチームの一員」として運用され始めたことだ。

転換点4:2026-04 Claude Opus 4.7で精度と自律性が両立した(ただし賛否あり)

そして2026年4月16日のClaude Opus 4.7。第4転換点。

公式発表の要点

Anthropic公式ブログとAPI Docsから要点を拾います。

Notable improvement on Opus 4.6 in advanced software engineering, with particular gains on the most difficult tasks.
出典: Anthropic「Introducing Claude Opus 4.7」

項目 Opus 4.6 Opus 4.7 差分
SWE-bench Verified 80.8% 87.6% +6.8pt
SWE-bench Pro 53.4% 64.3% +10.9pt
XBOW visual acuity 54.5% 98.5% +44pt
GPQA Diamond 91.3% 94.2% +2.9pt
OSWorld-Verified 72.7% 78.0% +5.3pt
CharXiv Reasoning(ツールなし) 69.1% 82.1% +13pt
CursorBench 58% 70% +12pt
BrowseComp 83.7% 79.3% -4.4pt
MRCR v2 @256k(8-needle) 91.9% 59.2% -32.7pt
MRCR v2 @1M 78.3% 32.2% -46.1pt

新機能は3つ。

  • xhigh effort:既存のhighとmaxの間に新設。high比でトークン約1.5倍消費、エージェントコーディング評価で5〜6%向上(出典: API Docs Effort
  • Task Budgets(beta):agentic loopの全体トークン予算を設定する新機能。最小20,000トークン、モデルが予算カウントダウンを認識して自律的に優先順位付け(出典: API Docs Task Budgets
  • 高解像度Vision:上限が2,576px / 3.75MP(従来1,568px / 1.15MPから3倍以上)。ピクセル座標が1:1マッピングに(出典: API Docs Vision

料金は入力$5 / 出力$25(1Mトークン)でOpus 4.6と同額
コンテキスト1M、
最大出力128K、
ASL-3も継続。
System Cardは232ページ公開。

賛成寄りの声

Anthropic公式ブログが引いているパートナー評価がわかりやすい。

It's phenomenal on one-shot coding tasks, more correct and complete than Opus 4.6.
— Vercel

Same quality at lower cost — more efficient and precise at tasks like analyzing logs and traces, finding bugs.
— Replit

First model to pass implicit-need tests; keeps executing through tool failures that used to stop Opus cold.
— Notion

出典: Anthropic公式ブログ

コミュニティ側でも、
Jeremy Howard(Y Combinator関連)が「the first model that 'gets' what I'm doing」とagentタスクでの直感的理解を評価、
Garry Tan(Y Combinator CEO)やRyo Lu(Cursorデザイナー)が日常使用の新標準として採用(出典: botmonster)。
Rakuten SWE Benchでは3倍の解決率改善の報告もある(出典: dev.to)。

批判・懸念の声

ここは絶対に両論にしておきたい場所。
Redditでは「Gaslightus 4.7」というニックネームが1,700 upvotesで拡散し、
「Claude Opus 4.7 is a serious regression, not an upgrade」が2,300 upvotes。
X上では「Opus 4.7はOpus 4.6より改善ではない」が14,000 likes(出典: startupfortune)。

特に構造的な争点は3つ。

  1. MRCR @1Mが78.3%→32.2%に大幅後退。ただしAnthropic側は「MRCRは段階的廃止予定のベンチマークで、実使用を反映しない設計」と主張し、代替指標GraphWalksを提示(出典: VentureBeat)。片方だけ書くと偏るので両方載せます。
  2. 新トークナイザーで実コストが最大35%増。公式は「roughly 1x to 1.35x as many tokens」、独立測定ではコードで1.29〜1.39倍、ユニーク文章で1.20倍、一部では1.47倍の報告も(出典: finout)。料金表記$5/$25は据え置きでも請求額は膨らむ。Claude Proユーザーが「3問でusage limitに到達」との報告もあります。
  3. 指示の厳密解釈。4.6は不完全なプロンプトを自動補正、4.7は補正せず厳密実行。この性質は「曖昧性税」として機能し、指示を厳密に書く開発者には好評、自動補正に慣れたカジュアルユーザーには不評という明確な二極化が起きています。Medium Mehul Gupta氏は「Claude Opus 4.7 is Bullshit」と直球批判(出典: Medium)。

この3つ目の分岐が一番大事だと私は思う。
「Opus 4.7は誰にとっても良いモデル」ではなく、
プロンプトを厳密に書く人向けに再チューニングされたモデルだ。
カジュアル運用の人が乗り換えて「劣化した」と感じるのは、
モデルのせいというより使い方の前提が変わったから。

7軸×全モデル比較マトリクス(家系図の本体)

ここからが本体。
家系図の骨組みとして7軸を固定して、
主要モデルを当てはめます。
全モデルをフラットに並べるのではなく、
転換点モデル+補助モデルに絞って表にします。

軸①〜④:コンテキスト長/コーディング/推論/マルチモーダル

モデル リリース Context Coding(SWE-bench) 推論の仕組み マルチモーダル
Claude 2 2023-07 100K 通常推論 テキストのみ
Claude 2.1 2023-11 200K 通常推論 テキストのみ
Claude 3ファミリー 2024-03 200K 通常推論 Vision対応開始
Claude 3.5 Sonnet 2024-06 200K 64%(内部agentic) 通常推論 Vision+Artifacts
Claude 3.5 Sonnet v2 2024-10 200K 通常推論 Computer Use(β)
Claude 3.7 Sonnet 2025-02 200K / 出力128K 70.3%(scaffold) Extended Thinking Vision継続
Claude 4(Sonnet4 / Opus4) 2025-05 200K Extended Thinking Vision+MCP Connectors
Claude Sonnet 4.5 2025-09 200K 77.2% Extended Thinking Vision
Claude Opus 4.5 2025-11 200K Extended Thinking Vision
Claude Opus 4.6 2026-02 1M 80.8% Adaptive Thinking Vision
Claude Sonnet 4.6 2026-02 1M(beta) 79.6% Adaptive Thinking(effort) Computer Use 94%
Claude Opus 4.7 2026-04 1M 87.6% Adaptive+xhigh Vision 98.5% / 3.75MP

並べると、
推論の仕組みの進化がClaudeの個性を一番作っているのが一目瞭然。
通常推論 → Extended Thinking → Adaptive Thinking → xhigh effort。
この一本線。

軸⑤〜⑦:エージェント能力/コスパ/安全性

モデル エージェント能力 主要価格(入力/出力 per 1M) 安全性
Claude 2.1 Tool Use(β) Constitutional AI
Claude 3.5 Sonnet Artifacts / Projects $3 / $15(Opus 3の1/5) RLHF+CAI
Claude 3.5 Sonnet v2 Computer Use(β) $3 / $15 RLHF+CAI
Claude 3.7 Sonnet Claude Code(プレビュー) $3 / $15 RLHF+CAI
Claude Opus 4 MCP Connectors / Files API ASL-3(初)
Claude Sonnet 4.5 30時間フォーカス / Claude for Chrome拡張の搭載モデル $3 / $15 ASL相当
Claude Opus 4.5 Infinite Chats / 出力76%削減 前世代比67%値下げ ASL-3
Claude Opus 4.6 Agent Teams(16台協調) $5 / $25(1M beta はプレミアム) ASL-3
Claude Sonnet 4.6 effort搭載 / Computer Use 94% $3 / $15 ASL相当
Claude Opus 4.7 Task Budgets / /ultrareview $5 / $25(据え置き/実質最大35%増) ASL-3(cyber自動防御)

エージェント能力の進化が一気に連なるのが見所だ。
Tool Use → Computer Use → Claude Code → MCP Connectors → Agent Teams → Task Budgets。
ここも一本線。

価格の軸は、
Sonnetラインが$3/$15に張り付いたまま性能だけ上がっていく構造。
一方Opusは4.7で据え置きに見えて、
トークナイザーで実質最大35%増。
表に数字だけ書くと見落とす部分

主要モデル早見表(一言サマリー)

モデル リリース 一言で言うと
Claude 2 2023-07 100Kコンテキストで長文の王になった
Claude 2.1 2023-11 200Kとβ版Tool Useで実務に入り始めた
Claude 3(H/S/O) 2024-03 Vision対応、Opus 3がChatbot Arena1位
Claude 3.5 Sonnet 2024-06 1/5の値段でOpus 3超え。Artifactsの衝撃
Claude 3.5 Sonnet v2 2024-10 Computer UseでAIが画面を触り始めた
Claude 3.7 Sonnet 2025-02 Extended ThinkingとClaude Codeの起点
Claude 4 2025-05 MCP Connectors。Opus 4がASL-3初認定
Claude Sonnet 4.5 2025-09 SWE 77.2%/30時間フォーカス/Claude for Chrome拡張の搭載モデル
Claude Opus 4.5 2025-11 67%値下げ+Infinite Chats
Claude Opus 4.6 2026-02 1MコンテキストとAgent Teamsの元祖
Claude Sonnet 4.6 2026-02 SWE 79.6%/1M(beta)/開発者の70%が4.5より好む
Claude Opus 4.7 2026-04 SWE 87.6%/Vision 98.5%/xhigh/Task Budgets

補足として、
2026-04-07にClaude Mythos Previewという一般非公開モデルが11社限定で提供開始(ゼロデイ脆弱性発見に特化)。
Anthropic公式(red.anthropic.com / Project Glasswing)はMythosをOpus 4.6 / Sonnet 4.6比で「別次元(in a different league)」と表現し、
Firefox 147 JavaScript エンジンの脆弱性を動くexploitに変換する実験で、
Opus 4.6が数百試行中2件成功に対しMythosは181件成功と発表している(出典: red.anthropic.com「Mythos Preview」
Project Glasswing)。
Mythos発表時点(2026-04-07)はOpus 4.7(2026-04-16発表)が未リリースのため、
4.7との直接比較は公式発表に存在しない。
家系図の本筋ではないので枝の注釈扱いにしておきます。
提供先はAWS・Apple・Broadcom・Cisco・CrowdStrike・Google・JPMorgan Chase・Linux Foundation・Microsoft・NVIDIA・Palo Alto Networks。

4つの転換点で見た家系図のまとめ

ここまで並べて、Claudeの家系図を1行で要約するならこうなる。

「長文が読めるAI(2〜2.1)」→「安くて賢いAI(3.5 Sonnet)」→「考える時間を持つAI(3.7 Sonnet)」→「チームで働くAI(4.6)」→「精度と自律性を両立したAI(4.7)」。

個人的に興味深いのは、
この進化ラインが「一人の相棒」から「分業するチームメンバー」へシフトしている点だ。
3.5 Sonnetまでは「優秀な壁打ち相手」。
3.7 Sonnetで「じっくり考えてくれる同僚」。
4.6で「複数のAIが協調する小チーム」。
4.7で「厳密な指示を厳密にこなす自律エンジニア」。

だから4.7の評価が二極化するのも筋が通る。
カジュアルユーザーの期待する「優秀な相棒」と、
4.7がチューニングされた「厳密解釈の自律エンジニア」は役割が違う。
ここを読み違えると「劣化した」と感じるし、
合っていれば「ようやく期待通りに動く」側に回る。
家系図で見ると評価が割れる理由が一発で見える。

「どのモデルを使えばいいか」を1つに絞らなくていい、
が今のClaudeの読み方だと私は思う。
家系図はそのための地図。

よくある質問

どのモデルを今使うべきか?

目的で変わります。
Anthropic公式と各社レビューを読む限り、
目安はこうだ。
コーディング重視かつプロンプトを厳密に書けるならOpus 4.7(SWE-bench 87.6%)。
日常の対話・ブレスト・文章作成はSonnet 4.6($3/$15、
SWE-bench 79.6%、
1M beta、
発表時の調査で開発者70%がSonnet 4.5より好む)。
高速・安価な大量処理はHaiku 4.5。
長文コンテキストの記憶力重視(MRCRが効く用途)ならOpus 4.6が依然として優位だが、
ここは利用経路で事情が変わるので後述のFAQで分けて整理する。

Opus 4.7の新トークナイザーでコストはどれくらい増える?

Anthropic公式は1.0〜1.35倍(最大35%増)と明示、
コードでは1.29〜1.39倍、
ユニーク文章で1.20倍と記載(出典: API Docs What's New)。
独立測定では1.47倍の報告も存在します(出典: finout.io)。
料金表記$5/$25は据え置きでも、
同じ入力ファイルを投げたときの実請求額は膨らむ、
が正確な整理。
移行前に/v1/messages/count_tokensで自前の代表入力を通してOpus 4.6との差を実測するのが安全だ。

Opus 4.7はOpus 4.6からすぐ乗り換えるべき?

Anthropic公式のBreaking Changesが無視できません。
Extended Thinking budgets廃止、
sampling parameters削除、
アシスタントメッセージのprefill廃止、
Adaptive Thinkingはデフォルトオフなど、
既存のAPI統合に手を入れる必要があります。
Anthropic公式は「指示をより文字通りに解釈するため既存プロンプトの再チューニングを推奨」と明言。
Rakuten SWE Benchで3倍の解決率改善の報告もある一方、
dev.to kai_outputs氏の8時間自律作業レポートのような実地テスト記事も出ているので、
本番投入前にステージングでの検証が前提になる。

長文コンテキスト処理が重要な場合はどう選ぶ?

MRCR v2 @1Mの78.3%→32.2%という後退は無視できません。
Anthropic側は「MRCRは段階的廃止予定で実使用を反映しない設計、
代替指標GraphWalksでは4.7が改善」と説明しています(出典: VentureBeat)。
ただしこの見解を採用するかは利用者判断。
長文での「針を探す」系の用途(大量ログ解析、
長大契約書の特定条項抽出など)を重視するなら、
利用経路で選び方を分けるのが現実解だ。

API経路(Claude Code / Bedrock / Vertex AI / Messages API直叩き)の場合: Anthropic公式のモデル廃止予定ページでclaude-opus-4-6Active、
引退予定は2027-02-05以降
と明記されている(出典: platform.claude.com/docs — Model deprecations)。
長文検索系の用途は4.6を並走させて4.7と実測比較し、
段階的に移行するのが堅い。
少なくとも1年弱は使える。

claude.ai chat UI経路の場合: chat UI側は新モデル投入時に旧モデルをセレクタから外す運用で、
Anthropicは実際に2026-01にOpus 4と4.1を同様に削除している(出典: Claude Help Center Release Notes)。
chatユーザーがOpus 4.6をセレクタで選べなくなっている場合、
APIに降りるかGemini 1.5 Pro等MRCR強モデルの併用を検討する方が筋が通る。
家系図の読み方として、
「API上のモデル寿命」と「chat UIのモデル寿命」は別物
と分けて覚えておくとこの手の乗り換え判断で迷わなくなる。

xhigh effortとTask Budgetsは何が違う?

xhigh effortは1リクエストあたりの思考量の設定(high比トークン約1.5倍、
エージェントコーディング評価で5〜6%向上)。
Task Budgetsはagentic loop全体のトークン予算の設定(最小20,000トークン、
モデルが予算カウントダウンを認識して優先順位付け)。
組み合わせて使うのが推奨で、
Messages APIのみ対応(Claude Managed Agentsは自動処理)。
Task Budgetsはbetaヘッダーtask-budgets-2026-03-13を指定する必要があります。

Claude Codeの`/ultrareview`は何をしてくれる?

複数の専門エージェント(セキュリティ/ロジック/パフォーマンス/スタイル)が並列でレビューし、
知見を統合レポートに集約するコマンド。
Pro/Maxユーザーは3回無料で試せます(出典: Pasquale Pillitteri氏のガイド)。
4.6のAgent Teams(research preview)の系譜で、
「複数AIの協調」がClaude Code内の実用機能に昇格した形だ。

Mythos Previewと4.7の関係は?

Mythos Previewは2026-04-07発表の一般非公開モデル。
11社限定でゼロデイ脆弱性発見に特化しており、
Anthropic公式(red.anthropic.com / Project Glasswing)はOpus 4.6 / Sonnet 4.6比で「別次元」と表現している。
Firefox 147 JavaScriptエンジン脆弱性のexploit変換実験で、
Opus 4.6が数百試行中2件成功に対しMythosは181件成功と公式発表(出典: red.anthropic.com
Project Glasswing)。
Opus 4.7との直接比較は公式発表に存在しない(Mythos発表の2026-04-07時点で4.7は未リリース)。
4.7の家系図の本筋というより、
Anthropicが一般公開ラインとは別に専門特化ラインを持ち始めたことを示す枝、
と理解する方が家系図の読み方としてスッキリする。
提供先はAWS・Apple・Broadcom・Cisco・CrowdStrike・Google・JPMorgan Chase・Linux Foundation・Microsoft・NVIDIA・Palo Alto Networks。

参考リンク(ファクトチェック用)

公式

分析・レビュー

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-,

← 戻る