AI活用全般

Claude Desktopの軽作業をOllamaに逃がして月$80浮かす|議事録・翻訳・メール下書きの振り分け手順

この記事の結論

Claude Pro/Maxを毎日叩いて月$20〜$200払ってる人にとって、5月4日に出たollama launch claude-desktopは地味に効くアップデートです。

議事録要約・翻訳・メール下書きのような軽作業をqwen3-coderやgpt-ossに逃がして、本気の長文だけClaude Opusに戻す。

その切替がDesktop画面で1コマンド完結になりました。

Ollama Pro $20/月を併用すれば、Claude Max 5x($100)からの落とし込みでも月$80前後の差額が出る計算です。

この記事はClaude Pro/Maxに毎月$20〜$200払っていて、軽い作業を安いモデルに逃がせないかと考えている人向け(Claude Desktopアプリを使ったことがあれば読めます)。

そもそも何が変わったのか(5月4日のOllama発表)

Ollama公式が2026年5月4日に出した発表が今回の主役です。

公式ドキュメントの記述はこうなっています。

Ollama now supports Claude Desktop via Claude's built-in third party inference. This allows all models from Ollama's Cloud to be used across Claude Cowork and Claude Code from the Claude Desktop app.

出典: Ollama公式ドキュメント「Claude Desktop integration」

要するにDesktopアプリの中で叩いているAIエンジンだけ、Ollama側のモデル(qwen3-coder:480b-cloud、gpt-oss:120b-cloud等)に差し替えられるようになった、という話です。

UIはClaudeのまま。

Coworkの画面もClaude Codeの画面もそのまま。

中身だけ差し変わる感じです。

過去のOllama×Claude Code(CLI)系の記事だと、ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKENを環境変数で設定する流れが定番でした。

今回はターミナルで1コマンド叩くだけで終わります。

ここが今回の本質。

GUIで完結するから非エンジニアのCowork利用者にも届く構造になっています。

なぜこれを今、Claude課金者が見るべきなのか

料金の話から入ります。Anthropic公式の現行料金がこれ。

プラン料金主な使い方
Free$0制限あり、Coworkは不可
Pro$20/月(年払い$17/月相当)Cowork・Claude Code利用可、軽め運用向け
Max 5x$100/月毎日Coworkを叩く運用の最低ライン
Max 20x$200/月1メッセージあたりコストがProの実質半額

出典: Anthropic公式pricingページ

日本国内ユーザーには2026年4月1日から消費税10%が乗っています。

Coworkは通常チャットよりトークンを食うので、毎日触るならMax 5x($100)以上が現実ラインです。

ここでOllama側の料金構造を重ねるとこうなります。

プラン料金cloudモデルの並列数cloud使用量
Ollama Free$0/月1並列基本枠(GPU消費量ベース)
Ollama Pro$20/月(年$200)3並列Freeの50倍
Ollama Max$100/月10並列Freeの250倍(Proの5倍)

出典: Ollama公式pricingページ

ローカルモデル実行はプラン問わず無制限です。

料金カードだけ見るとClaude側とOllama側で同じ$20・$100が並んでて、私は一瞬目を疑いました。

ただし課金構造は別物です。

Ollamaは「トークン数ではなくGPUインフラ消費量ベース」で、5時間ごとのセッション制限と週次制限の二重ロックがかかっています。

私の見方では、ここが今回の差し替え運用が刺さるポイントです。

毎日重い長文を10回叩く運用ならClaude Max 5xを残す。

ただし議事録要約や翻訳のような軽作業を切り出してOllama Cloudに逃がせば、Claude側はProの$20プランでも回せる可能性が出てきます。

Product CompassというPM系メディアもこう書いています。

Anthropicは静かに、Claude CoworkとCodeをどのLLMプロバイダでも動かせる機能をリリースした。

$100〜$200/月のMaxプランなしでも、無料モデルを使えばサブスクリプション不要でCoworkが動く。

出典: Product Compass「Cowork on 3P, Any LLM」

「Maxプランなしでも動く」という文脈で語られているのが、海外PM系の今の温度感です。

軽作業を逃がす運用、何をどこに振るのか

使い分けの素案です。

料金/コスパ目線で、Claude純正に残す作業とOllama Cloudに逃がす作業を分けてみます。

業務シーン推奨理由
議事録の要約(30分→3行)Ollama Cloud(gpt-oss:20b-cloud等)軽量で十分、Claude Opus相当のトークンは過剰
英→日翻訳(数千字)Ollama Cloud(qwen3-coderまたはglm-4.7:cloud)翻訳はOpenモデルでも品質劣化が小さい
メール下書きOllama Cloud(gpt-oss:20b-cloud)1日10通でもCloud使用量を圧迫しない軽さ
本気の記事執筆・長文編集Claude純正(Opus 4.6 / Sonnet 4.6)Nejumi Leaderboard 4で総合2位(0.8394)の日本語品質
コード生成(複雑系)Claude純正 or Ollama qwen3-coder:480bHumanEval 93.8%報告のqwen3-coderはコード単発なら互角
機密情報を含むタスクClaude純正Ollama Cloud経由はQwen系のAlibabaルーティング懸念が未解決

出典: Qualiteg「日本語LLMランキング2026」(Nejumi Leaderboard 4)Ollama Claude Desktop公式ドキュメント

個人的には、ここの「機密情報は純正Claude」の線を引けるかが運用の生死を分けると思います。

GitHub Issue #14279でQwen3.5のCloudモデルがAlibabaのインフラ経由でルーティングされる可能性が指摘されていて、Ollama側からの公式回答は2026年2月時点でまだ出ていません(出典: GitHub Issue #14279)。

顧客名・契約金額・社内のコードベースが入る作業はOllama Cloudに流さない。

これは引いておく線です。

Claude Desktop × Ollamaの導入手順(公式ドキュメント再構成)

Ollama公式ドキュメント「Claude Desktop integration」に書かれている手順を、料金カット運用の文脈で並べ直します。

  1. STEP1: 前提を揃える。Claude Desktop(macOSまたはWindows)をインストールしておく。Anthropicアカウントでログイン済みにする。Ollamaも最新版(v0.16.0以上推奨)を入れる
  2. STEP2: Ollama APIキーを取る。ollama.com/settings/keysにブラウザで入って、API Keyを発行する。発行された文字列をコピー
  3. STEP3: ターミナルでAPIキーを環境変数に登録export OLLAMA_API_KEY=取得したキーを1行叩く(macOS/Linuxの場合、Windowsはsetコマンドで同等)
  4. STEP4: 統合コマンドを叩くollama launch claude-desktopを1行叩くと、Claude Desktopアプリが再起動して、モデル選択メニューにOllama Cloudのモデルが自動で追加される
  5. STEP5: Cowork画面でモデルを切り替える。Claude Desktopの右上のモデル切替メニューからqwen3-coder:480b-cloudgpt-oss:20b-cloudを選んで、軽作業を流す
  6. STEP6: 重作業に戻すときは元のClaude設定に戻すollama launch claude-desktop --restoreでデフォルトのClaude純正設定に切り戻せる。--yesを足せば確認プロンプトもスキップ

引っかかりやすいポイントを2つ。

Ollamaがv0.16.0未満だとunknown command 'launch'エラーが出るケースが報告されています(出典: Ollama Troubleshooting Guide)。

最新版に更新してから叩くのが安全です。

もう1つ、Claude Codeのデフォルトコンテキストウィンドウは数万トークンを前提としているのに、Ollama側のデフォルトは4,096トークンになっています(出典: Ollama Claude Code integration)。

Claude Code側で長いコンテキストを扱う場合は、最低32Kトークン以上の設定にしておく必要があります。

料金シミュレーション:実際にいくら浮くのか

3つのパターンで月額試算を出してみます。

運用パターンAnthropic側Ollama側合計(月)
純正Claude Maxのみ(現状)Max 5x $100$0$100
Pro+Ollama Pro併用Pro $20Ollama Pro $20$40
Pro+Ollama Free併用Pro $20$0$20
Pro+Ollama Free(重作業の月だけMax 20x)Pro $20または一時Max $200$0$20〜$220(変動)

Max 5xからPro+Ollama Pro併用への落とし込みなら月$60の差額。

年に直すと$720(約11万円)です。

これが浮くかどうかは「軽作業をどれだけ切り出せるか」で決まります。

毎日のCowork利用のうち、議事録要約・翻訳・メール下書きが7割を占める人なら、Pro+Ollama Pro併用に降ろしても回ります。

逆に毎日10時間Claude Codeで本格コード生成している人は、Max 20xを残したまま、軽い議事録だけOllama Cloudに振る運用が現実的です。

私なら、まずFreeで1週間回して、限界が見えたタイミングでPro $20に上げる順番で組みます。

ここで1つ留保。Ollama Cloudの無料枠の絶対値は公開されていません。

Ollama公式pricingは「Proの50倍」「Maxの250倍」のような相対表現のみで、月N回・Mトークンといった絶対値は出していません。

Ollama公式の課金記述では「processed transiently」とのみ書かれており、具体的な月間ボリュームは公表対象外です(出典: Ollama blog「Cloud Models」)。

つまり「Ollama Free $0でどこまで行けるか」は使ってみないと分からない領域です。

とりあえずFreeで始めて、限界を感じたらPro $20に上げる、が安全な入り方です。

データプライバシーはどうなっているのか

Anthropic公式ヘルプセンターのCowork×サードパーティ説明ページがこう書いています。

prompts and completions route to your cloud provider. Anthropic never sees this traffic. Anthropic only receives usage telemetry such as token counts and error diagnostics, which can be fully disabled via MDM.

出典: Anthropic Help Center「Use Claude Cowork with third-party platforms」

つまり、プロンプトと出力はOllama側のクラウドにルーティングされて、Anthropicは見ない。

Anthropicが受け取るのはトークン数とエラー情報だけ、しかもMDM管理下では完全に切れる、という構造です。

Ollama側のデータ保持ポリシーはこう書かれています。

Ollama's cloud does not retain your data to ensure privacy and security.

出典: Ollama blog「Cloud Models」

Ollamaのプライバシーポリシーでも、cloud条項には「processed transiently to provide the Service and this content is not stored beyond the time required to fulfill the request」と明記されています。

ただし注意点が1つあります。

前述のGitHub Issue #14279で、Qwen系cloudモデル使用時にAlibabaのインフラを経由するルートの可能性が指摘されており、Ollama側からの公式回答は2026年2月時点で未提示のままです。

この未解決issueがある以上、Qwen3.5・qwen3-coder系を機密情報の処理に使うのは私なら避けます。

gpt-oss・glm-4.7など他系統を選ぶ運用が現実的です。

Anthropic純正のCowork(Claudeのみ)に対するプライバシー扱いはAnthropicのEnterprise契約条項に従い、サードパーティ推論を有効化したセッションでは別ポリシーが当たる、という二重構造になっている点も覚えておきたいところです。

「軽作業逃がし運用」を始める手順(再現ステップ)

料金削減目的で今日から動くなら、こういう順番で組むのが現実的です。

  1. STEP1: 手元の月額利用ログを5分で見る。Claude Desktopの設定画面で過去30日のセッション履歴を眺めて、議事録要約・翻訳・メール下書きが何回あるか数える。それが「逃がせる作業」の総量
  2. STEP2: Ollamaを入れてFreeアカウントを作る。ollama.comからインストーラーを落として、APIキーをollama.com/settings/keysで発行する
  3. STEP3: ollama launch claude-desktopで1コマンド統合。前述の手順章STEP1〜6に従ってDesktopアプリ内のモデル切替を有効化する
  4. STEP4: 1週間、軽作業だけOllama Cloud(gpt-oss:20b-cloud等)に流す。本気の長文・コードはClaude純正のまま。違和感が出たタスクだけメモしておく
  5. STEP5: 1週間後にClaude Pro/Maxプランを見直す。Cowork使用量が想定の半分以下に落ちていたら、Max 5x→Pro $20へのダウングレードを検討する
  6. STEP6: Ollama側がFreeで足りないと感じたらPro $20に上げる。Cloud並列数が3になり、使用量が50倍になる。それでもMax 5xからPro+Ollama Pro併用への切替で月$60減る計算

1点だけ釘を刺すと、料金削減目的でやる場合、最初の1週間で「Claude純正に戻したくなる作業」をはっきり言語化しておくのが大事です。

Open系モデルが詰まる場面を可視化してから、最終的なプラン構成を決めれば失敗しにくいです。

FAQ

Q1. Ollama統合を使うとClaudeのチャット履歴やプロジェクトはどうなりますか?

サードパーティ推論を有効化したセッションでは、チャットタブとプロジェクト共有・スキルとプラグインマーケットプレイス・ボイスモード・コンピューターユーズが使えなくなります(出典: Anthropic Help Center)。

ollama launch claude-desktop --restoreでClaude純正に戻せば全機能が復活します。

Q2. Coworkでウェブ検索を使いたい時はどうすればいいですか?

Ollama Cloud経由のCoworkではウェブ検索は非対応です。

Anthropic公式は「Web検索はVertex AIとAzure経由でのみ動作」と明記しています(出典: Anthropic Help Center)。

最新情報リサーチが必要なタスクはClaude純正に戻して使う運用が必要です。

Q3. Ollama Pro $20とClaude Pro $20を両方契約する意味はありますか?

「軽作業をOllama Cloudに逃がして、Claude Maxからダウングレードしたい人」には意味があります。

Max 5x $100からPro $20+Ollama Pro $20の組み合わせに落とせば、月$60削減できる計算です。

年で約$720(約11万円)です。

逆に「重作業中心でCowork使用量が大きい人」はClaude Max継続のほうが結局安く付きます。

Q4. ollama launch claude-desktopでエラーが出ました。何を確認すれば?

主な失敗パターンは4つ。

unknown command 'launch'はOllamaがv0.16.0未満で発生、最新版に更新する。

②「claude is not installed」はGitHub Issue #14048で報告、Claude Desktopが正しいパスにあるか確認する。

③401 UnauthorizedエラーはOLLAMA_API_KEY環境変数の登録漏れか期限切れ。

④コンテキストウィンドウ4,096トークン不足エラーは、Claude Code側で32Kトークン以上に設定する。

出典: Ollama Troubleshooting GuideGitHub Issue #14048

Q5. 機密情報を扱う仕事でOllama Cloudを使ってもいいですか?

Qwen3.5・qwen3-coder系を機密データに使うのは推奨しません。

GitHub Issue #14279でAlibabaのインフラを経由するルートの可能性が指摘されており、Ollama側からの公式回答は2026年2月時点で未提示です(出典: GitHub Issue #14279)。

gpt-oss・glm-4.7系は別系統なので相対的に安全寄りですが、社外秘・契約金額・顧客名を含むタスクはClaude純正に戻す運用が無難です。

このページに出てきた言葉

Ollama
ローカルでも自社クラウドでも動かせるAI実行環境。今回Claude Desktopと統合された
Claude Cowork
Claudeアプリ内で複数AIエージェントが分担作業する機能。Pro以上で利用可
third party inference
Claudeの中身だけ別社AIに差し替えていい、というAnthropic公式の仕組み
cloud model
Ollama側のサーバーで動くモデル。手元のGPUなしで巨大モデルを叩ける
APIキー
そのサービスを使う本人だと証明する文字列。外部に貼らない
環境変数
パソコンが起動時に覚えてる設定値
ターミナル
黒い画面で文字のコマンドを打ち込む画面
コンテキストウィンドウ
AIが1回のやり取りで覚えていられる文章量の上限
トークン
AIが文章を扱う最小単位
MDM
会社が社員の端末を一括管理する仕組み(Mobile Device Management)

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-, , ,

← 戻る