この記事の結論
Claude Pro/Maxを毎日叩いて月$20〜$200払ってる人にとって、5月4日に出たollama launch claude-desktopは地味に効くアップデートです。
議事録要約・翻訳・メール下書きのような軽作業をqwen3-coderやgpt-ossに逃がして、本気の長文だけClaude Opusに戻す。
その切替がDesktop画面で1コマンド完結になりました。
Ollama Pro $20/月を併用すれば、Claude Max 5x($100)からの落とし込みでも月$80前後の差額が出る計算です。
この記事はClaude Pro/Maxに毎月$20〜$200払っていて、軽い作業を安いモデルに逃がせないかと考えている人向け(Claude Desktopアプリを使ったことがあれば読めます)。
そもそも何が変わったのか(5月4日のOllama発表)
Ollama公式が2026年5月4日に出した発表が今回の主役です。
公式ドキュメントの記述はこうなっています。
Ollama now supports Claude Desktop via Claude's built-in third party inference. This allows all models from Ollama's Cloud to be used across Claude Cowork and Claude Code from the Claude Desktop app.
要するにDesktopアプリの中で叩いているAIエンジンだけ、Ollama側のモデル(qwen3-coder:480b-cloud、gpt-oss:120b-cloud等)に差し替えられるようになった、という話です。
UIはClaudeのまま。
Coworkの画面もClaude Codeの画面もそのまま。
中身だけ差し変わる感じです。
過去のOllama×Claude Code(CLI)系の記事だと、ANTHROPIC_BASE_URLとANTHROPIC_AUTH_TOKENを環境変数で設定する流れが定番でした。
今回はターミナルで1コマンド叩くだけで終わります。
ここが今回の本質。
GUIで完結するから非エンジニアのCowork利用者にも届く構造になっています。
なぜこれを今、Claude課金者が見るべきなのか
料金の話から入ります。Anthropic公式の現行料金がこれ。
| プラン | 料金 | 主な使い方 |
|---|---|---|
| Free | $0 | 制限あり、Coworkは不可 |
| Pro | $20/月(年払い$17/月相当) | Cowork・Claude Code利用可、軽め運用向け |
| Max 5x | $100/月 | 毎日Coworkを叩く運用の最低ライン |
| Max 20x | $200/月 | 1メッセージあたりコストがProの実質半額 |
出典: Anthropic公式pricingページ。
日本国内ユーザーには2026年4月1日から消費税10%が乗っています。
Coworkは通常チャットよりトークンを食うので、毎日触るならMax 5x($100)以上が現実ラインです。
ここでOllama側の料金構造を重ねるとこうなります。
| プラン | 料金 | cloudモデルの並列数 | cloud使用量 |
|---|---|---|---|
| Ollama Free | $0/月 | 1並列 | 基本枠(GPU消費量ベース) |
| Ollama Pro | $20/月(年$200) | 3並列 | Freeの50倍 |
| Ollama Max | $100/月 | 10並列 | Freeの250倍(Proの5倍) |
出典: Ollama公式pricingページ。
ローカルモデル実行はプラン問わず無制限です。
料金カードだけ見るとClaude側とOllama側で同じ$20・$100が並んでて、私は一瞬目を疑いました。
ただし課金構造は別物です。
Ollamaは「トークン数ではなくGPUインフラ消費量ベース」で、5時間ごとのセッション制限と週次制限の二重ロックがかかっています。
私の見方では、ここが今回の差し替え運用が刺さるポイントです。
毎日重い長文を10回叩く運用ならClaude Max 5xを残す。
ただし議事録要約や翻訳のような軽作業を切り出してOllama Cloudに逃がせば、Claude側はProの$20プランでも回せる可能性が出てきます。
Product CompassというPM系メディアもこう書いています。
Anthropicは静かに、Claude CoworkとCodeをどのLLMプロバイダでも動かせる機能をリリースした。
$100〜$200/月のMaxプランなしでも、無料モデルを使えばサブスクリプション不要でCoworkが動く。
「Maxプランなしでも動く」という文脈で語られているのが、海外PM系の今の温度感です。
軽作業を逃がす運用、何をどこに振るのか
使い分けの素案です。
料金/コスパ目線で、Claude純正に残す作業とOllama Cloudに逃がす作業を分けてみます。
| 業務シーン | 推奨 | 理由 |
|---|---|---|
| 議事録の要約(30分→3行) | Ollama Cloud(gpt-oss:20b-cloud等) | 軽量で十分、Claude Opus相当のトークンは過剰 |
| 英→日翻訳(数千字) | Ollama Cloud(qwen3-coderまたはglm-4.7:cloud) | 翻訳はOpenモデルでも品質劣化が小さい |
| メール下書き | Ollama Cloud(gpt-oss:20b-cloud) | 1日10通でもCloud使用量を圧迫しない軽さ |
| 本気の記事執筆・長文編集 | Claude純正(Opus 4.6 / Sonnet 4.6) | Nejumi Leaderboard 4で総合2位(0.8394)の日本語品質 |
| コード生成(複雑系) | Claude純正 or Ollama qwen3-coder:480b | HumanEval 93.8%報告のqwen3-coderはコード単発なら互角 |
| 機密情報を含むタスク | Claude純正 | Ollama Cloud経由はQwen系のAlibabaルーティング懸念が未解決 |
出典: Qualiteg「日本語LLMランキング2026」(Nejumi Leaderboard 4)、Ollama Claude Desktop公式ドキュメント。
個人的には、ここの「機密情報は純正Claude」の線を引けるかが運用の生死を分けると思います。
GitHub Issue #14279でQwen3.5のCloudモデルがAlibabaのインフラ経由でルーティングされる可能性が指摘されていて、Ollama側からの公式回答は2026年2月時点でまだ出ていません(出典: GitHub Issue #14279)。
顧客名・契約金額・社内のコードベースが入る作業はOllama Cloudに流さない。
これは引いておく線です。
Claude Desktop × Ollamaの導入手順(公式ドキュメント再構成)
Ollama公式ドキュメント「Claude Desktop integration」に書かれている手順を、料金カット運用の文脈で並べ直します。
- STEP1: 前提を揃える。Claude Desktop(macOSまたはWindows)をインストールしておく。Anthropicアカウントでログイン済みにする。Ollamaも最新版(v0.16.0以上推奨)を入れる
- STEP2: Ollama APIキーを取る。ollama.com/settings/keysにブラウザで入って、API Keyを発行する。発行された文字列をコピー
- STEP3: ターミナルでAPIキーを環境変数に登録。
export OLLAMA_API_KEY=取得したキーを1行叩く(macOS/Linuxの場合、Windowsはsetコマンドで同等) - STEP4: 統合コマンドを叩く。
ollama launch claude-desktopを1行叩くと、Claude Desktopアプリが再起動して、モデル選択メニューにOllama Cloudのモデルが自動で追加される - STEP5: Cowork画面でモデルを切り替える。Claude Desktopの右上のモデル切替メニューから
qwen3-coder:480b-cloudやgpt-oss:20b-cloudを選んで、軽作業を流す - STEP6: 重作業に戻すときは元のClaude設定に戻す。
ollama launch claude-desktop --restoreでデフォルトのClaude純正設定に切り戻せる。--yesを足せば確認プロンプトもスキップ
引っかかりやすいポイントを2つ。
Ollamaがv0.16.0未満だとunknown command 'launch'エラーが出るケースが報告されています(出典: Ollama Troubleshooting Guide)。
最新版に更新してから叩くのが安全です。
もう1つ、Claude Codeのデフォルトコンテキストウィンドウは数万トークンを前提としているのに、Ollama側のデフォルトは4,096トークンになっています(出典: Ollama Claude Code integration)。
Claude Code側で長いコンテキストを扱う場合は、最低32Kトークン以上の設定にしておく必要があります。
料金シミュレーション:実際にいくら浮くのか
3つのパターンで月額試算を出してみます。
| 運用パターン | Anthropic側 | Ollama側 | 合計(月) |
|---|---|---|---|
| 純正Claude Maxのみ(現状) | Max 5x $100 | $0 | $100 |
| Pro+Ollama Pro併用 | Pro $20 | Ollama Pro $20 | $40 |
| Pro+Ollama Free併用 | Pro $20 | $0 | $20 |
| Pro+Ollama Free(重作業の月だけMax 20x) | Pro $20または一時Max $200 | $0 | $20〜$220(変動) |
Max 5xからPro+Ollama Pro併用への落とし込みなら月$60の差額。
年に直すと$720(約11万円)です。
これが浮くかどうかは「軽作業をどれだけ切り出せるか」で決まります。
毎日のCowork利用のうち、議事録要約・翻訳・メール下書きが7割を占める人なら、Pro+Ollama Pro併用に降ろしても回ります。
逆に毎日10時間Claude Codeで本格コード生成している人は、Max 20xを残したまま、軽い議事録だけOllama Cloudに振る運用が現実的です。
私なら、まずFreeで1週間回して、限界が見えたタイミングでPro $20に上げる順番で組みます。
ここで1つ留保。Ollama Cloudの無料枠の絶対値は公開されていません。
Ollama公式pricingは「Proの50倍」「Maxの250倍」のような相対表現のみで、月N回・Mトークンといった絶対値は出していません。
Ollama公式の課金記述では「processed transiently」とのみ書かれており、具体的な月間ボリュームは公表対象外です(出典: Ollama blog「Cloud Models」)。
つまり「Ollama Free $0でどこまで行けるか」は使ってみないと分からない領域です。
とりあえずFreeで始めて、限界を感じたらPro $20に上げる、が安全な入り方です。
データプライバシーはどうなっているのか
Anthropic公式ヘルプセンターのCowork×サードパーティ説明ページがこう書いています。
prompts and completions route to your cloud provider. Anthropic never sees this traffic. Anthropic only receives usage telemetry such as token counts and error diagnostics, which can be fully disabled via MDM.
出典: Anthropic Help Center「Use Claude Cowork with third-party platforms」
つまり、プロンプトと出力はOllama側のクラウドにルーティングされて、Anthropicは見ない。
Anthropicが受け取るのはトークン数とエラー情報だけ、しかもMDM管理下では完全に切れる、という構造です。
Ollama側のデータ保持ポリシーはこう書かれています。
Ollama's cloud does not retain your data to ensure privacy and security.
Ollamaのプライバシーポリシーでも、cloud条項には「processed transiently to provide the Service and this content is not stored beyond the time required to fulfill the request」と明記されています。
ただし注意点が1つあります。
前述のGitHub Issue #14279で、Qwen系cloudモデル使用時にAlibabaのインフラを経由するルートの可能性が指摘されており、Ollama側からの公式回答は2026年2月時点で未提示のままです。
この未解決issueがある以上、Qwen3.5・qwen3-coder系を機密情報の処理に使うのは私なら避けます。
gpt-oss・glm-4.7など他系統を選ぶ運用が現実的です。
Anthropic純正のCowork(Claudeのみ)に対するプライバシー扱いはAnthropicのEnterprise契約条項に従い、サードパーティ推論を有効化したセッションでは別ポリシーが当たる、という二重構造になっている点も覚えておきたいところです。
「軽作業逃がし運用」を始める手順(再現ステップ)
料金削減目的で今日から動くなら、こういう順番で組むのが現実的です。
- STEP1: 手元の月額利用ログを5分で見る。Claude Desktopの設定画面で過去30日のセッション履歴を眺めて、議事録要約・翻訳・メール下書きが何回あるか数える。それが「逃がせる作業」の総量
- STEP2: Ollamaを入れてFreeアカウントを作る。ollama.comからインストーラーを落として、APIキーをollama.com/settings/keysで発行する
- STEP3:
ollama launch claude-desktopで1コマンド統合。前述の手順章STEP1〜6に従ってDesktopアプリ内のモデル切替を有効化する - STEP4: 1週間、軽作業だけOllama Cloud(gpt-oss:20b-cloud等)に流す。本気の長文・コードはClaude純正のまま。違和感が出たタスクだけメモしておく
- STEP5: 1週間後にClaude Pro/Maxプランを見直す。Cowork使用量が想定の半分以下に落ちていたら、Max 5x→Pro $20へのダウングレードを検討する
- STEP6: Ollama側がFreeで足りないと感じたらPro $20に上げる。Cloud並列数が3になり、使用量が50倍になる。それでもMax 5xからPro+Ollama Pro併用への切替で月$60減る計算
1点だけ釘を刺すと、料金削減目的でやる場合、最初の1週間で「Claude純正に戻したくなる作業」をはっきり言語化しておくのが大事です。
Open系モデルが詰まる場面を可視化してから、最終的なプラン構成を決めれば失敗しにくいです。
FAQ
Q1. Ollama統合を使うとClaudeのチャット履歴やプロジェクトはどうなりますか?
サードパーティ推論を有効化したセッションでは、チャットタブとプロジェクト共有・スキルとプラグインマーケットプレイス・ボイスモード・コンピューターユーズが使えなくなります(出典: Anthropic Help Center)。ollama launch claude-desktop --restoreでClaude純正に戻せば全機能が復活します。
Q2. Coworkでウェブ検索を使いたい時はどうすればいいですか?
Ollama Cloud経由のCoworkではウェブ検索は非対応です。
Anthropic公式は「Web検索はVertex AIとAzure経由でのみ動作」と明記しています(出典: Anthropic Help Center)。
最新情報リサーチが必要なタスクはClaude純正に戻して使う運用が必要です。
Q3. Ollama Pro $20とClaude Pro $20を両方契約する意味はありますか?
「軽作業をOllama Cloudに逃がして、Claude Maxからダウングレードしたい人」には意味があります。
Max 5x $100からPro $20+Ollama Pro $20の組み合わせに落とせば、月$60削減できる計算です。
年で約$720(約11万円)です。
逆に「重作業中心でCowork使用量が大きい人」はClaude Max継続のほうが結局安く付きます。
Q4. ollama launch claude-desktopでエラーが出ました。何を確認すれば?
主な失敗パターンは4つ。
①unknown command 'launch'はOllamaがv0.16.0未満で発生、最新版に更新する。
②「claude is not installed」はGitHub Issue #14048で報告、Claude Desktopが正しいパスにあるか確認する。
③401 UnauthorizedエラーはOLLAMA_API_KEY環境変数の登録漏れか期限切れ。
④コンテキストウィンドウ4,096トークン不足エラーは、Claude Code側で32Kトークン以上に設定する。
出典: Ollama Troubleshooting Guide、GitHub Issue #14048。
Q5. 機密情報を扱う仕事でOllama Cloudを使ってもいいですか?
Qwen3.5・qwen3-coder系を機密データに使うのは推奨しません。
GitHub Issue #14279でAlibabaのインフラを経由するルートの可能性が指摘されており、Ollama側からの公式回答は2026年2月時点で未提示です(出典: GitHub Issue #14279)。
gpt-oss・glm-4.7系は別系統なので相対的に安全寄りですが、社外秘・契約金額・顧客名を含むタスクはClaude純正に戻す運用が無難です。
このページに出てきた言葉
- Ollama
- ローカルでも自社クラウドでも動かせるAI実行環境。今回Claude Desktopと統合された
- Claude Cowork
- Claudeアプリ内で複数AIエージェントが分担作業する機能。Pro以上で利用可
- third party inference
- Claudeの中身だけ別社AIに差し替えていい、というAnthropic公式の仕組み
- cloud model
- Ollama側のサーバーで動くモデル。手元のGPUなしで巨大モデルを叩ける
- APIキー
- そのサービスを使う本人だと証明する文字列。外部に貼らない
- 環境変数
- パソコンが起動時に覚えてる設定値
- ターミナル
- 黒い画面で文字のコマンドを打ち込む画面
- コンテキストウィンドウ
- AIが1回のやり取りで覚えていられる文章量の上限
- トークン
- AIが文章を扱う最小単位
- MDM
- 会社が社員の端末を一括管理する仕組み(Mobile Device Management)
参考リンク
- Ollama Claude Desktop integration(公式ドキュメント)
- Ollama Claude Code integration(公式ドキュメント)
- Ollama Pricing(公式)
- Ollama blog「Cloud Models」
- Anthropic Claude Pricing(公式)
- Anthropic Help Center「Cowork with third-party platforms」
- Product Compass「Cowork on 3P, Any LLM」
- GitHub Issue #14279(Qwen cloudのAlibabaルーティング懸念)
- GitHub Issue #14048(claude not installed問題)
- Ollama Troubleshooting Guide
- Qualiteg「日本語LLMランキング2026」
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。