Googleの「Gemma 4」を自分のPCに入れると、
月額0円・制限なし・完全オフラインでAIチャットが使える。
非エンジニアでもClaude Codeに頼めば導入からブラウザUIの構築まで全部できる。
ただし「ChatGPTの代わりになるか?」と聞かれたら、
正直7割。
日本語の精度や複雑な指示への対応力では、
まだクラウドAIに届かない。
この記事では、
非エンジニアの私が実際にGemma 4をローカルPCに入れた全手順と、
使ってみてわかった「できること・できないこと」を正直にまとめる。
私の使い方: RTX 4070 Ti SUPER(VRAM 16GB)環境でGemma 4の26Bモデルを運用。
Open WebUI経由でブラウザからチャット+Web検索。
大量データの分類やオフライン時の壁打ちに使っている。
ブログ記事のような長文生成はClaudeに任せ、
Gemma 4は「精度より量」の作業専用。
そもそもGemma 4って何?Googleが無料で配る理由は?
商用利用もOK
4倍以上の性能向上
140言語対応
クラウドへ誘導
ざっくり言うと、
Googleが出した「自分のPCで動くAIモデル」です。
Apache 2.0っていうライセンスで公開されてて、
完全に無料。
商用利用もOK。
改変もOK。
太っ腹すぎないですか。
でもこれ、
慈善事業じゃないんですよ。
Androidと同じ戦略なんです。
AndroidってOSは無料ですけど、
みんなGoogleのサービスを使うから結局Googleが儲かる仕組みじゃないですか。
Gemma 4も同じ構造。
無料で配る。
みんなGemmaベースで開発する。
本番はGoogle Cloud(サーバー)で動かす。
インフラ代で稼ぐ。
あと、
中国のDeepSeekとかQwenがオープンモデルでガンガン開発者を囲い込んでるので、
アメリカ企業として対抗する意味もあります。
めちゃくちゃ戦略的な話なんですよね。
性能はどうかっていうと、
Googleの公式発表によると数学のベンチマーク(AIME 2026)で前の世代のGemma 3が20.8%だったのに対して、
Gemma 4は89.2%です。
4倍以上。
桁が変わってる。
ただし、
ClaudeやChatGPTの最上位モデルにはまだ届かない。
「一流の一歩手前」くらいの立ち位置です。
それが無料で、
しかも自分のPCだけで動く。
そこがすごいんです。
ローカルAIとクラウドAIは何が違うのか?
ふだん使ってるClaude、
ChatGPT、
Gemini。
これ全部「クラウドAI」です。
入力したテキストは、
どこか遠くのサーバーに送られて処理されてる。
だから月額がかかるし、
制限もかかる。
ローカルAIはその逆。あなたのPC内で計算が完結します。
| 比較項目 | クラウドAI(Claude/ChatGPT等) | ローカルAI(Gemma 4) |
|---|---|---|
| 処理場所 | 企業のサーバー | 自分のPC内 |
| 月額費用 | 有料(月2,000〜3,000円〜) | 0円 |
| 利用制限 | あり(回数・トークン上限) | なし(使い放題) |
| データの外部送信 | あり(サーバーに送られる) | なし(PCから出ない) |
| ツール連携 | あり(道具箱が内蔵) | なし(素手=チャットのみ) |
| 文章の品質 | 高い | 7割程度 |
| オフライン動作 | 不可 | 可能 |
ただし、
大きなトレードオフがあって。
Claude Codeって、
AIの中に「道具箱」が入ってるんですよ。
ファイルを読む道具、
コマンドを実行する道具、
ネット検索する道具。
だからファイル操作もコード実行もWebブラウジングもできる。
Gemma 4は「素手」です。
頭はいいけど、
手足がない。
チャットはできるけど、
それ以外は自分じゃなにもできない。
この違い、
使ってみるまで全然わかりませんでした。
Gemma 4ローカルAIはどんな場面で使えるか?
ローカルなら何回やっても無料
移動中でもAIが使える
情報漏洩リスクゼロ
たとえばCSVに入ってる1,000件のデータを「ポジティブ/ネガティブ」に分類したいとき。
Claude APIで回すと、
モデルやトークン数にもよりますけど数千円かかることがある。
ローカルのGemma 4なら、
同じ処理が0円です。
時間はかかる。
でもお金はかからない。
「精度より量」の作業には、
かなり向いてると思います。
あと、
オフライン作業。
新幹線でトンネルに入ったら通信が切れる。
飛行機のWi-Fiは微妙。
でもローカルAIはネット不要なので、
どこでも動く。
移動中に下書きのたたき台を作ったり、
アイデアの壁打ちをしたり。
「圏外でもAI」って、
地味にありがたいんですよ。
そして、
たぶん仕事で一番ありがたいのがプライバシー。
顧客リスト、
社内資料、
未公開の企画書。
AIに読ませたいけど、
クラウドに送るのは怖いですよね。
ローカルAIなら、
データが自分のPCから一歩も出ない。
情報セキュリティを気にする仕事ほど、
ローカルAIの恩恵がでかいです。
Gemma 4に必要なスペックは?
私の環境はこんな感じでした。
| 項目 | 私の環境 |
|---|---|
| GPU | NVIDIA RTX 4070 Ti SUPER(VRAM 16GB) |
| メモリ | 24GB |
| CPU | Intel i7-14700KF |
| OS | Windows 11(WSL2でLinux) |
ポイントはGPUの「VRAM」(ビデオメモリ)です。
PCに積んであるグラフィックボードのメモリのこと。
Gemma 4にはサイズがいくつかあって、
小さいモデル(E4B)なら約6GBのVRAMで動きます。
これはちょっといいゲーミングPCなら余裕のライン。
賢いモデル(26B)だと16〜18GBくらい必要で、
私の環境だとギリギリでした。
GPUがないPCでもCPUだけで動くことは動くんですけど、
めちゃくちゃ遅いです。
あとはClaude Codeが使える環境があれば大丈夫。
Claude Codeが「AIアシスタント兼インストーラー」になってくれるので、
コマンドを覚える必要がない。
所要時間は全部で約1時間。
つまずき込み。
費用は合計0円でした。
Gemma 4のインストールはどうやるのか?
と伝える
導入完了
26B: 17GB
即座に会話可能
ここからは時系列で話します。
まずClaude Codeに「ローカルでGemma 4を動かしたい」と伝えました。
するとClaude Codeが「Ollamaというツールを使えばローカルで簡単にインストール・実行できます。
インストールスクリプトを実行しましょうか?」って返してきたんです。
Ollamaは、
AIモデルをPCにダウンロードして動かすための土台みたいなものです。
「お願い」って返したら、
そのままインストールのコマンドを実行してくれた。
あなたが試すなら、
Claude Codeに「OllamaでGemma 4をローカルに入れたい。
全部やって」って頼めば同じことが起きるはずです。
……が、
いきなりつまずく。
「パスワードを入力してください」って出たんですよ。
WSL(WindowsでLinuxを動かすしくみ)のパスワード、
設定した覚えがない。
焦ってClaude Codeに聞いたら、
「WSLのパスワードはPowerShellからリセットできます。
PowerShellを管理者権限で開いて実行してください」って返してきて。
言われた通りにPowerShellを開いてコマンドを打ったら、
あっさり解決。
もしあなたも同じ状況になったら、
Claude Codeに「WSLのパスワードがわからない。
リセットして」って頼んでみてください。
やり方を教えてくれます。
ああ、
こういう「ちょっとしたつまずき」でエンジニアじゃない人は脱落するんだろうなって思いました。
AIに聞けるだけで全然違う。
パスワードが通ったら、
Ollamaのインストールはスムーズ。
途中で「zstdが足りません」ってエラーが出たんですけど、
Claude Codeが勝手に追加インストールしてリトライしてくれて、
約2分で完了。
私は「zstd」がなにかすらわかってないです。
次にGemma 4本体をダウンロード。
Claude Codeに「Gemma 4入れて」と言ったら、
2つのサイズを入れてくれました。
小さいほう(E4B)が9.6GBで約5分。
大きいほう(26B)が17GBで約10分。
ネット回線によってはもう少しかかる場合があります。
ダウンロードが終わったら、
さっそくチャットしてみた。
「自己紹介して」と日本語で入力。
ちゃんと日本語で返ってきた。
「おー、
動いてる」ってなりました。
ちょっと感動。
ここまでは順調だったんです。問題はこのあと。
Gemma 4を入れたら何ができるのか?
Gemma 4が動いて、
日本語で会話もできて、
「よし、
これでいろいろやるぞ」と思ったんですよ。
ファイル読ませたり、
ネットで調べものさせたり。
……できない。
なにを頼んでも「テキストで答える」しかできないんです。
Claude Codeだったら「このファイル読んで」「ネットで調べて」「コマンド実行して」ができるじゃないですか。
Gemma 4は、
チャットだけ。
ファイルも読めない。
検索もできない。
コマンドも無理。
さっき言った「素手のAI」ってこういうことか、
と。
Claude Code = AI + 道具箱(ファイル操作、
コマンド実行、
検索、
記憶……)。
Gemma 4 = AIだけ。
道具なし。
この差、
触ってみて初めてわかりました。
で、
さすがにチャットだけじゃ物足りないので、
Claude Codeに相談したんです。
「ChatGPTみたいな画面でGemma 4を使いたいんだけど」って。
そしたら「Open WebUIっていうのがありますよ」と。
Open WebUIでどう進化するのか?
導入
操作画面
をアップロード
最新情報取得
プライベートAI
Open WebUIは、
AIのための「画面」を作ってくれるツールです。
AI自体ではなくて、
AIにつなぐテレビみたいなもの。
放送局(Gemma 4)の映像を映すテレビ(Open WebUI)、
ってイメージしてください。
これを入れると、
ブラウザでChatGPTっぽくチャットできるようになる。
会話履歴も保存できる。
ファイルもドラッグ&ドロップで読ませられる。
さらにWeb検索まで追加できる。
Claude Codeに「Open WebUIをDocker経由で入れて」と頼んだら、
自動でセットアップが始まりました。
Dockerは、
ソフトをまるごとパッケージにして動かす道具です。
箱詰めして渡す感じ。
ここもClaude Codeがぜんぶやってくれた。
あなたが試すなら「Open WebUIをDockerで入れて、
Ollamaと接続して」って頼めばOK。
Docker自体もなければ「Dockerも入れて」でやってくれるはずです。
ただ、
すんなりとはいかなかったんですよ。
まず「モデルが表示されない」ってなって。
Claude Codeがログ(動作記録)を読んで「接続先の設定が間違ってますね」って直してくれた。
次にWeb検索を使えるようにしたかったんですけど、
これがまた3段階の修正が必要で。
まず検索用のパッケージ(ddgsっていうDuckDuckGo検索のプログラム)が足りないのをインストール。
次に環境変数っていう設定を追加して、
Dockerを作り直して。
最後にOpen WebUIの画面で、
毎回チャットするときに「+」ボタン → 「ウェブサーチ」をONにする操作が必要だとわかるまでに、
30分くらいかかりました。
でも全部Claude Codeがやってくれたんですよ。
私がやったのは「動かない」「なんかエラー出た」って伝えることだけ。
最終的に完成したのが、
ブラウザで開ける「自分だけのChatGPT」です。
チャットも、
ファイル読み込みも、
Web検索もできる。
月額0円。
データは一切外に出ない。
Open WebUIのWeb検索はChatGPTと何が違うのか?
ChatGPTのWeb検索って、
AI自身がネットを見に行ってるイメージありませんか。
じつはOpen WebUIのWeb検索は、
ちょっと違うんですよ。
検索してるのはOpen WebUI(ただのプログラム)であって、
AIじゃない。
流れとしてはこう。
質問する → Open WebUIがDuckDuckGoで検索 → 検索結果のテキストを取ってくる → 質問と検索結果をセットでGemma 4に渡す → Gemma 4が読んで答える。
つまりAIは「検索結果を読んでるだけ」なんです。
検索そのものはAIがやってない。
ChatGPTの検索も似たような仕組みのはずなんですけど、
使ってると「AIが調べてくれてる」って思い込みがちですよね。
ローカルで自分でセットアップすると、
こういう裏側が見えてくる。
これ知ってると、
「なんか検索結果がズレてるな」ってときに原因の切り分けができるようになります。
AIが悪いのか、
検索が悪いのか。
けっこう大事な視点です。
Gemma 4ローカルAIについてよくある疑問
Q. GPUがないノートPCでも動く?
動くことは動きます。
CPUだけでも処理はできる。
ただ、
めちゃくちゃ遅いです。
小さいモデル(E4B)ならなんとか使えます。
大きいモデルは実用的じゃないと思います。
もしGPUつきのPCを持ってるなら、
そっちで試すほうが圧倒的に快適。
Q. Gemma 4の日本語ってどうなの?
使える。
けどClaudeと比べると正直まだ粗い。
「1文で答えて」って言っても長文で返ってきたりします。
指示の通りやすさは、
やっぱりClaudeやChatGPTのほうが上。
でも「日本語が通じない」レベルではないので、
壁打ちとか下書きのたたき台には十分使えます。
Q. セキュリティ的に大丈夫?怪しいソフト入れて壊れない?
今回使ったOllamaもOpen WebUIも「オープンソース」のツールです。
オープンソースっていうのは、
コードが全部公開されてて、
だれでも中身を確認できるもの。
実際、
私はClaude Codeにインストール用のスクリプト(455行)を全部読ませて、
セキュリティチェックしてもらいました。
結果:マルウェアなし。
外部への情報送信なし。
ネットワーク公開はlocalhost限定(自分のPCだけ)。
ただし、
オープンソースは誰でもコードを変更できるので、
インストールする前に最終更新日と「Issue」(報告された問題)を確認するのがおすすめです。
自分で判断がむずかしければ、
Claude Codeに「このリポジトリのコードを読んで、
安全かチェックして」と頼めばいいです。
AIにチェックさせてからインストール。
これは鉄則にしてください。
Gemma 4の正直な限界は?
文章の品質は、
ClaudeやChatGPTに比べると劣ります。
とくに長い文章を書かせると、
質の差がはっきり出る。
「ブログ記事を1本書いて」みたいなタスクは、
まだクラウドAIに任せたほうがいい。
エージェント的な自動作業もできません。
「このフォルダのファイルを全部リネームして」みたいなのはClaude Codeの仕事。
VRAMが足りないと大きいモデルが使えないのも制約です。
私のRTX 4070 Ti SUPER(VRAM 16GB)でも、
31Bモデルはメモリ不足で動かせなかった。
そして、
セットアップに1時間かかる。
「今すぐAIに聞きたい」って人には、
ChatGPTを開いたほうが早いです。
まとめ
「ローカルLLMを入れたらChatGPTの代わりになる」は半分嘘です。
チャットはできるけど、
手足がない「素手のAI」。
Open WebUIで拡張して、
やっとChatGPTの7割くらい。
でも、
お金がかからなくて、
ネットがなくても動いて、
データが外に出ない。
この3つが全部そろうのは、
ローカルAIだけなんですよ。
で、
これが「一部のエンジニアだけのおもちゃ」じゃなくなってきてるのが大事な変化だと思ってて。
Claude Codeみたいなツールがあれば、
コマンド知らなくても入れられる。
Gemma 4みたいな高性能モデルが無料で配られる。
つまり「AIを使うためにOpenAIやGoogleにお金を払い続ける」以外の選択肢が、
ふつうの人にも手が届くようになってきた。
今はまだ7割。
でもこの7割が来年には8割、
9割になる可能性は十分あります。
そのとき「自分で入れたことがある」と「聞いたことはある」の差は、
けっこうでかいんじゃないかなって。
まず一回やってみてください。
「あ、
AIってこういう仕組みで動いてるんだ」ってのが体感でわかるようになります。
それだけでも、
やる価値あると思ってます。
参考リンク
- Gemma 4 公式(Google): https://ai.google.dev/gemma
- Ollama(ローカルLLM実行環境): https://github.com/ollama/ollama
- Open WebUI(ブラウザ型チャットUI): https://github.com/open-webui/open-webui
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。