Googleの「Gemma 4」を自分のPCに入れると、月額0円・制限なし・完全オフラインでAIチャットが使える。非エンジニアでもClaude Codeに頼めば導入からブラウザUIの構築まで全部できる。
ただし「ChatGPTの代わりになるか?」と聞かれたら、正直7割。日本語の精度や複雑な指示への対応力では、まだクラウドAIに届かない。
この記事では、非エンジニアの私が実際にGemma 4をローカルPCに入れた全手順と、使ってみてわかった「できること・できないこと」を正直にまとめる。
私の使い方: RTX 4070 Ti SUPER(VRAM 16GB)環境でGemma 4の26Bモデルを運用。Open WebUI経由でブラウザからチャット+Web検索。大量データの分類やオフライン時の壁打ちに使っている。ブログ記事のような長文生成はClaudeに任せ、Gemma 4は「精度より量」の作業専用。
そもそもGemma 4って何?Googleが無料で配る理由は?
商用利用もOK
4倍以上の性能向上
140言語対応
クラウドへ誘導
ざっくり言うと、Googleが出した「自分のPCで動くAIモデル」です。Apache 2.0っていうライセンスで公開されてて、完全に無料。商用利用もOK。改変もOK。太っ腹すぎないですか。
でもこれ、慈善事業じゃないんですよ。Androidと同じ戦略なんです。AndroidってOSは無料ですけど、みんなGoogleのサービスを使うから結局Googleが儲かる仕組みじゃないですか。
Gemma 4も同じ構造。無料で配る。みんなGemmaベースで開発する。本番はGoogle Cloud(サーバー)で動かす。インフラ代で稼ぐ。
あと、中国のDeepSeekとかQwenがオープンモデルでガンガン開発者を囲い込んでるので、アメリカ企業として対抗する意味もあります。めちゃくちゃ戦略的な話なんですよね。
性能はどうかっていうと、Googleの公式発表によると数学のベンチマーク(AIME 2026)で前の世代のGemma 3が20.8%だったのに対して、Gemma 4は89.2%です。4倍以上。桁が変わってる。
ただし、ClaudeやChatGPTの最上位モデルにはまだ届かない。「一流の一歩手前」くらいの立ち位置です。それが無料で、しかも自分のPCだけで動く。そこがすごいんです。
ローカルAIとクラウドAIは何が違うのか?
ふだん使ってるClaude、ChatGPT、Gemini。これ全部「クラウドAI」です。入力したテキストは、どこか遠くのサーバーに送られて処理されてる。だから月額がかかるし、制限もかかる。
ローカルAIはその逆。あなたのPC内で計算が完結します。
| 比較項目 | クラウドAI(Claude/ChatGPT等) | ローカルAI(Gemma 4) |
|---|---|---|
| 処理場所 | 企業のサーバー | 自分のPC内 |
| 月額費用 | 有料(月2,000〜3,000円〜) | 0円 |
| 利用制限 | あり(回数・トークン上限) | なし(使い放題) |
| データの外部送信 | あり(サーバーに送られる) | なし(PCから出ない) |
| ツール連携 | あり(道具箱が内蔵) | なし(素手=チャットのみ) |
| 文章の品質 | 高い | 7割程度 |
| オフライン動作 | 不可 | 可能 |
ただし、大きなトレードオフがあって。Claude Codeって、AIの中に「道具箱」が入ってるんですよ。ファイルを読む道具、コマンドを実行する道具、ネット検索する道具。だからファイル操作もコード実行もWebブラウジングもできる。
Gemma 4は「素手」です。頭はいいけど、手足がない。チャットはできるけど、それ以外は自分じゃなにもできない。この違い、使ってみるまで全然わかりませんでした。
Gemma 4ローカルAIはどんな場面で使えるか?
ローカルなら何回やっても無料
移動中でもAIが使える
情報漏洩リスクゼロ
たとえばCSVに入ってる1,000件のデータを「ポジティブ/ネガティブ」に分類したいとき。Claude APIで回すと、モデルやトークン数にもよりますけど数千円かかることがある。ローカルのGemma 4なら、同じ処理が0円です。時間はかかる。でもお金はかからない。「精度より量」の作業には、かなり向いてると思います。
あと、オフライン作業。新幹線でトンネルに入ったら通信が切れる。飛行機のWi-Fiは微妙。でもローカルAIはネット不要なので、どこでも動く。移動中に下書きのたたき台を作ったり、アイデアの壁打ちをしたり。「圏外でもAI」って、地味にありがたいんですよ。
そして、たぶん仕事で一番ありがたいのがプライバシー。顧客リスト、社内資料、未公開の企画書。AIに読ませたいけど、クラウドに送るのは怖いですよね。ローカルAIなら、データが自分のPCから一歩も出ない。情報セキュリティを気にする仕事ほど、ローカルAIの恩恵がでかいです。
Gemma 4に必要なスペックは?
私の環境はこんな感じでした。
| 項目 | 私の環境 |
|---|---|
| GPU | NVIDIA RTX 4070 Ti SUPER(VRAM 16GB) |
| メモリ | 24GB |
| CPU | Intel i7-14700KF |
| OS | Windows 11(WSL2でLinux) |
ポイントはGPUの「VRAM」(ビデオメモリ)です。PCに積んであるグラフィックボードのメモリのこと。Gemma 4にはサイズがいくつかあって、小さいモデル(E4B)なら約6GBのVRAMで動きます。これはちょっといいゲーミングPCなら余裕のライン。
賢いモデル(26B)だと16〜18GBくらい必要で、私の環境だとギリギリでした。GPUがないPCでもCPUだけで動くことは動くんですけど、めちゃくちゃ遅いです。
あとはClaude Codeが使える環境があれば大丈夫。Claude Codeが「AIアシスタント兼インストーラー」になってくれるので、コマンドを覚える必要がない。所要時間は全部で約1時間。つまずき込み。費用は合計0円でした。
Gemma 4のインストールはどうやるのか?
と伝える
導入完了
26B: 17GB
即座に会話可能
ここからは時系列で話します。
まずClaude Codeに「ローカルでGemma 4を動かしたい」と伝えました。するとClaude Codeが「Ollamaというツールを使えばローカルで簡単にインストール・実行できます。インストールスクリプトを実行しましょうか?」って返してきたんです。Ollamaは、AIモデルをPCにダウンロードして動かすための土台みたいなものです。
「お願い」って返したら、そのままインストールのコマンドを実行してくれた。あなたが試すなら、Claude Codeに「OllamaでGemma 4をローカルに入れたい。全部やって」って頼めば同じことが起きるはずです。
……が、いきなりつまずく。「パスワードを入力してください」って出たんですよ。WSL(WindowsでLinuxを動かすしくみ)のパスワード、設定した覚えがない。
焦ってClaude Codeに聞いたら、「WSLのパスワードはPowerShellからリセットできます。PowerShellを管理者権限で開いて実行してください」って返してきて。言われた通りにPowerShellを開いてコマンドを打ったら、あっさり解決。
もしあなたも同じ状況になったら、Claude Codeに「WSLのパスワードがわからない。リセットして」って頼んでみてください。やり方を教えてくれます。
ああ、こういう「ちょっとしたつまずき」でエンジニアじゃない人は脱落するんだろうなって思いました。AIに聞けるだけで全然違う。
パスワードが通ったら、Ollamaのインストールはスムーズ。途中で「zstdが足りません」ってエラーが出たんですけど、Claude Codeが勝手に追加インストールしてリトライしてくれて、約2分で完了。私は「zstd」がなにかすらわかってないです。
次にGemma 4本体をダウンロード。Claude Codeに「Gemma 4入れて」と言ったら、2つのサイズを入れてくれました。小さいほう(E4B)が9.6GBで約5分。大きいほう(26B)が17GBで約10分。ネット回線によってはもう少しかかる場合があります。
ダウンロードが終わったら、さっそくチャットしてみた。「自己紹介して」と日本語で入力。ちゃんと日本語で返ってきた。「おー、動いてる」ってなりました。ちょっと感動。
ここまでは順調だったんです。問題はこのあと。
Gemma 4を入れたら何ができるのか?
Gemma 4が動いて、日本語で会話もできて、「よし、これでいろいろやるぞ」と思ったんですよ。ファイル読ませたり、ネットで調べものさせたり。
……できない。
なにを頼んでも「テキストで答える」しかできないんです。Claude Codeだったら「このファイル読んで」「ネットで調べて」「コマンド実行して」ができるじゃないですか。Gemma 4は、チャットだけ。ファイルも読めない。検索もできない。コマンドも無理。
さっき言った「素手のAI」ってこういうことか、と。Claude Code = AI + 道具箱(ファイル操作、コマンド実行、検索、記憶……)。Gemma 4 = AIだけ。道具なし。この差、触ってみて初めてわかりました。
で、さすがにチャットだけじゃ物足りないので、Claude Codeに相談したんです。「ChatGPTみたいな画面でGemma 4を使いたいんだけど」って。そしたら「Open WebUIっていうのがありますよ」と。
Open WebUIでどう進化するのか?
導入
操作画面
をアップロード
最新情報取得
プライベートAI
Open WebUIは、AIのための「画面」を作ってくれるツールです。AI自体ではなくて、AIにつなぐテレビみたいなもの。放送局(Gemma 4)の映像を映すテレビ(Open WebUI)、ってイメージしてください。
これを入れると、ブラウザでChatGPTっぽくチャットできるようになる。会話履歴も保存できる。ファイルもドラッグ&ドロップで読ませられる。さらにWeb検索まで追加できる。
Claude Codeに「Open WebUIをDocker経由で入れて」と頼んだら、自動でセットアップが始まりました。Dockerは、ソフトをまるごとパッケージにして動かす道具です。箱詰めして渡す感じ。ここもClaude Codeがぜんぶやってくれた。
あなたが試すなら「Open WebUIをDockerで入れて、Ollamaと接続して」って頼めばOK。Docker自体もなければ「Dockerも入れて」でやってくれるはずです。
ただ、すんなりとはいかなかったんですよ。まず「モデルが表示されない」ってなって。Claude Codeがログ(動作記録)を読んで「接続先の設定が間違ってますね」って直してくれた。
次にWeb検索を使えるようにしたかったんですけど、これがまた3段階の修正が必要で。まず検索用のパッケージ(ddgsっていうDuckDuckGo検索のプログラム)が足りないのをインストール。次に環境変数っていう設定を追加して、Dockerを作り直して。最後にOpen WebUIの画面で、毎回チャットするときに「+」ボタン → 「ウェブサーチ」をONにする操作が必要だとわかるまでに、30分くらいかかりました。
でも全部Claude Codeがやってくれたんですよ。私がやったのは「動かない」「なんかエラー出た」って伝えることだけ。
最終的に完成したのが、ブラウザで開ける「自分だけのChatGPT」です。チャットも、ファイル読み込みも、Web検索もできる。月額0円。データは一切外に出ない。
Open WebUIのWeb検索はChatGPTと何が違うのか?
ChatGPTのWeb検索って、AI自身がネットを見に行ってるイメージありませんか。じつはOpen WebUIのWeb検索は、ちょっと違うんですよ。検索してるのはOpen WebUI(ただのプログラム)であって、AIじゃない。
流れとしてはこう。質問する → Open WebUIがDuckDuckGoで検索 → 検索結果のテキストを取ってくる → 質問と検索結果をセットでGemma 4に渡す → Gemma 4が読んで答える。
つまりAIは「検索結果を読んでるだけ」なんです。検索そのものはAIがやってない。
ChatGPTの検索も似たような仕組みのはずなんですけど、使ってると「AIが調べてくれてる」って思い込みがちですよね。ローカルで自分でセットアップすると、こういう裏側が見えてくる。
これ知ってると、「なんか検索結果がズレてるな」ってときに原因の切り分けができるようになります。AIが悪いのか、検索が悪いのか。けっこう大事な視点です。
Gemma 4ローカルAIについてよくある疑問
Q. GPUがないノートPCでも動く?
動くことは動きます。CPUだけでも処理はできる。ただ、めちゃくちゃ遅いです。小さいモデル(E4B)ならなんとか使えます。大きいモデルは実用的じゃないと思います。もしGPUつきのPCを持ってるなら、そっちで試すほうが圧倒的に快適。
Q. Gemma 4の日本語ってどうなの?
使える。けどClaudeと比べると正直まだ粗い。「1文で答えて」って言っても長文で返ってきたりします。指示の通りやすさは、やっぱりClaudeやChatGPTのほうが上。でも「日本語が通じない」レベルではないので、壁打ちとか下書きのたたき台には十分使えます。
Q. セキュリティ的に大丈夫?怪しいソフト入れて壊れない?
今回使ったOllamaもOpen WebUIも「オープンソース」のツールです。オープンソースっていうのは、コードが全部公開されてて、だれでも中身を確認できるもの。実際、私はClaude Codeにインストール用のスクリプト(455行)を全部読ませて、セキュリティチェックしてもらいました。結果:マルウェアなし。外部への情報送信なし。ネットワーク公開はlocalhost限定(自分のPCだけ)。ただし、オープンソースは誰でもコードを変更できるので、インストールする前に最終更新日と「Issue」(報告された問題)を確認するのがおすすめです。自分で判断がむずかしければ、Claude Codeに「このリポジトリのコードを読んで、安全かチェックして」と頼めばいいです。AIにチェックさせてからインストール。これは鉄則にしてください。
Gemma 4の正直な限界は?
文章の品質は、ClaudeやChatGPTに比べると劣ります。とくに長い文章を書かせると、質の差がはっきり出る。「ブログ記事を1本書いて」みたいなタスクは、まだクラウドAIに任せたほうがいい。
エージェント的な自動作業もできません。「このフォルダのファイルを全部リネームして」みたいなのはClaude Codeの仕事。
VRAMが足りないと大きいモデルが使えないのも制約です。私のRTX 4070 Ti SUPER(VRAM 16GB)でも、31Bモデルはメモリ不足で動かせなかった。
そして、セットアップに1時間かかる。「今すぐAIに聞きたい」って人には、ChatGPTを開いたほうが早いです。
まとめ
「ローカルLLMを入れたらChatGPTの代わりになる」は半分嘘です。チャットはできるけど、手足がない「素手のAI」。Open WebUIで拡張して、やっとChatGPTの7割くらい。
でも、お金がかからなくて、ネットがなくても動いて、データが外に出ない。この3つが全部そろうのは、ローカルAIだけなんですよ。
で、これが「一部のエンジニアだけのおもちゃ」じゃなくなってきてるのが大事な変化だと思ってて。Claude Codeみたいなツールがあれば、コマンド知らなくても入れられる。Gemma 4みたいな高性能モデルが無料で配られる。
つまり「AIを使うためにOpenAIやGoogleにお金を払い続ける」以外の選択肢が、ふつうの人にも手が届くようになってきた。
今はまだ7割。でもこの7割が来年には8割、9割になる可能性は十分あります。そのとき「自分で入れたことがある」と「聞いたことはある」の差は、けっこうでかいんじゃないかなって。
まず一回やってみてください。「あ、AIってこういう仕組みで動いてるんだ」ってのが体感でわかるようになります。それだけでも、やる価値あると思ってます。
参考リンク
- Gemma 4 公式(Google): https://ai.google.dev/gemma
- Ollama(ローカルLLM実行環境): https://github.com/ollama/ollama
- Open WebUI(ブラウザ型チャットUI): https://github.com/open-webui/open-webui
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。