AI活用レビュー

Gemma 4ローカル導入|0円で自分専用ChatGPTを作る手順と正直な限界

REVIEW
Gemma 4 ローカル導入ガイド
0円で自分専用ChatGPTを作る手順と正直な限界
0円ローカルAIOllama

Googleの「Gemma 4」を自分のPCに入れると、月額0円・制限なし・完全オフラインでAIチャットが使える。非エンジニアでもClaude Codeに頼めば導入からブラウザUIの構築まで全部できる。

ただし「ChatGPTの代わりになるか?」と聞かれたら、正直7割。日本語の精度や複雑な指示への対応力では、まだクラウドAIに届かない。

この記事では、非エンジニアの私が実際にGemma 4をローカルPCに入れた全手順と、使ってみてわかった「できること・できないこと」を正直にまとめる。

Gemma 4(ローカル導入)評価まとめ

料金完全無料(Apache 2.0ライセンス)
使いやすさ★★★★★
日本語対応★★★★★
おすすめ度★★★★

私の使い方: RTX 4070 Ti SUPER(VRAM 16GB)環境でGemma 4の26Bモデルを運用。Open WebUI経由でブラウザからチャット+Web検索。大量データの分類やオフライン時の壁打ちに使っている。ブログ記事のような長文生成はClaudeに任せ、Gemma 4は「精度より量」の作業専用。

そもそもGemma 4って何?Googleが無料で配る理由は?

料金
完全無料
Apache 2.0ライセンス
商用利用もOK
性能
AIME 89.2%
前世代Gemma 2は20.8%
4倍以上の性能向上
開発元
Google
DeepMind開発
140言語対応
戦略
Android方式
無料で配ってユーザーを獲得
クラウドへ誘導

ざっくり言うと、Googleが出した「自分のPCで動くAIモデル」です。Apache 2.0っていうライセンスで公開されてて、完全に無料。商用利用もOK。改変もOK。太っ腹すぎないですか。

でもこれ、慈善事業じゃないんですよ。Androidと同じ戦略なんです。AndroidってOSは無料ですけど、みんなGoogleのサービスを使うから結局Googleが儲かる仕組みじゃないですか。

Gemma 4も同じ構造。無料で配る。みんなGemmaベースで開発する。本番はGoogle Cloud(サーバー)で動かす。インフラ代で稼ぐ。

あと、中国のDeepSeekとかQwenがオープンモデルでガンガン開発者を囲い込んでるので、アメリカ企業として対抗する意味もあります。めちゃくちゃ戦略的な話なんですよね。

性能はどうかっていうと、Googleの公式発表によると数学のベンチマーク(AIME 2026)で前の世代のGemma 3が20.8%だったのに対して、Gemma 4は89.2%です。4倍以上。桁が変わってる。

ただし、ClaudeやChatGPTの最上位モデルにはまだ届かない。「一流の一歩手前」くらいの立ち位置です。それが無料で、しかも自分のPCだけで動く。そこがすごいんです。

ローカルAIとクラウドAIは何が違うのか?

ふだん使ってるClaude、ChatGPT、Gemini。これ全部「クラウドAI」です。入力したテキストは、どこか遠くのサーバーに送られて処理されてる。だから月額がかかるし、制限もかかる。

ローカルAIはその逆。あなたのPC内で計算が完結します。

比較項目クラウドAI(Claude/ChatGPT等)ローカルAI(Gemma 4)
処理場所企業のサーバー自分のPC内
月額費用有料(月2,000〜3,000円〜)0円
利用制限あり(回数・トークン上限)なし(使い放題)
データの外部送信あり(サーバーに送られる)なし(PCから出ない)
ツール連携あり(道具箱が内蔵)なし(素手=チャットのみ)
文章の品質高い7割程度
オフライン動作不可可能

ただし、大きなトレードオフがあって。Claude Codeって、AIの中に「道具箱」が入ってるんですよ。ファイルを読む道具、コマンドを実行する道具、ネット検索する道具。だからファイル操作もコード実行もWebブラウジングもできる。

Gemma 4は「素手」です。頭はいいけど、手足がない。チャットはできるけど、それ以外は自分じゃなにもできない。この違い、使ってみるまで全然わかりませんでした。

Gemma 4ローカルAIはどんな場面で使えるか?

📊
大量データ処理
CSV1000件分類が0円
クラウドAIならトークン課金で数千円
ローカルなら何回やっても無料
✈️
オフライン
新幹線・飛行機でもAI
ネット接続不要
移動中でもAIが使える
🔒
プライバシー
顧客データがPCから出ない
外部サーバーに一切送信しない
情報漏洩リスクゼロ

たとえばCSVに入ってる1,000件のデータを「ポジティブ/ネガティブ」に分類したいとき。Claude APIで回すと、モデルやトークン数にもよりますけど数千円かかることがある。ローカルのGemma 4なら、同じ処理が0円です。時間はかかる。でもお金はかからない。「精度より量」の作業には、かなり向いてると思います。

あと、オフライン作業。新幹線でトンネルに入ったら通信が切れる。飛行機のWi-Fiは微妙。でもローカルAIはネット不要なので、どこでも動く。移動中に下書きのたたき台を作ったり、アイデアの壁打ちをしたり。「圏外でもAI」って、地味にありがたいんですよ。

そして、たぶん仕事で一番ありがたいのがプライバシー。顧客リスト、社内資料、未公開の企画書。AIに読ませたいけど、クラウドに送るのは怖いですよね。ローカルAIなら、データが自分のPCから一歩も出ない。情報セキュリティを気にする仕事ほど、ローカルAIの恩恵がでかいです。

Gemma 4に必要なスペックは?

✅ 導入前チェックリスト
GPU VRAM 6GB〜(E4B)/ 16GB〜(26B)
E4Bは軽量モデル。26Bは高性能だがVRAM食い
メモリ 24GB推奨
最低16GBでE4Bは動作。26Bは24GB以上必須
Claude Code環境
セットアップはClaude Codeに聞きながら進める前提
所要時間 約1時間
ダウンロード時間含む。回線速度に依存
費用 0円
Ollama無料・Gemma 4無料・Open WebUI無料

私の環境はこんな感じでした。

項目私の環境
GPUNVIDIA RTX 4070 Ti SUPER(VRAM 16GB)
メモリ24GB
CPUIntel i7-14700KF
OSWindows 11(WSL2でLinux)

ポイントはGPUの「VRAM」(ビデオメモリ)です。PCに積んであるグラフィックボードのメモリのこと。Gemma 4にはサイズがいくつかあって、小さいモデル(E4B)なら約6GBのVRAMで動きます。これはちょっといいゲーミングPCなら余裕のライン。

賢いモデル(26B)だと16〜18GBくらい必要で、私の環境だとギリギリでした。GPUがないPCでもCPUだけで動くことは動くんですけど、めちゃくちゃ遅いです。

あとはClaude Codeが使える環境があれば大丈夫。Claude Codeが「AIアシスタント兼インストーラー」になってくれるので、コマンドを覚える必要がない。所要時間は全部で約1時間。つまずき込み。費用は合計0円でした。

Gemma 4のインストールはどうやるのか?

STEP 1
Claude Codeに頼む
「Ollamaを入れたい」
と伝える
STEP 2
Ollamaインストール
コマンド1行で
導入完了
STEP 3
Gemma 4ダウンロード
E4B: 9.6GB
26B: 17GB
STEP 4
チャット開始
ollama runで
即座に会話可能

ここからは時系列で話します。

まずClaude Codeに「ローカルでGemma 4を動かしたい」と伝えました。するとClaude Codeが「Ollamaというツールを使えばローカルで簡単にインストール・実行できます。インストールスクリプトを実行しましょうか?」って返してきたんです。Ollamaは、AIモデルをPCにダウンロードして動かすための土台みたいなものです。

「お願い」って返したら、そのままインストールのコマンドを実行してくれた。あなたが試すなら、Claude Codeに「OllamaでGemma 4をローカルに入れたい。全部やって」って頼めば同じことが起きるはずです。

……が、いきなりつまずく。「パスワードを入力してください」って出たんですよ。WSL(WindowsでLinuxを動かすしくみ)のパスワード、設定した覚えがない。

焦ってClaude Codeに聞いたら、「WSLのパスワードはPowerShellからリセットできます。PowerShellを管理者権限で開いて実行してください」って返してきて。言われた通りにPowerShellを開いてコマンドを打ったら、あっさり解決。

もしあなたも同じ状況になったら、Claude Codeに「WSLのパスワードがわからない。リセットして」って頼んでみてください。やり方を教えてくれます。

ああ、こういう「ちょっとしたつまずき」でエンジニアじゃない人は脱落するんだろうなって思いました。AIに聞けるだけで全然違う。

パスワードが通ったら、Ollamaのインストールはスムーズ。途中で「zstdが足りません」ってエラーが出たんですけど、Claude Codeが勝手に追加インストールしてリトライしてくれて、約2分で完了。私は「zstd」がなにかすらわかってないです。

次にGemma 4本体をダウンロード。Claude Codeに「Gemma 4入れて」と言ったら、2つのサイズを入れてくれました。小さいほう(E4B)が9.6GBで約5分。大きいほう(26B)が17GBで約10分。ネット回線によってはもう少しかかる場合があります。

ダウンロードが終わったら、さっそくチャットしてみた。「自己紹介して」と日本語で入力。ちゃんと日本語で返ってきた。「おー、動いてる」ってなりました。ちょっと感動。

ここまでは順調だったんです。問題はこのあと。

Gemma 4を入れたら何ができるのか?

Claude Code = AI + 道具箱
● ファイル操作(読み書き・編集)
● コマンド実行(ターミナル操作)
● Web検索・情報取得
● AIが道具を使って作業してくれる
Gemma 4 = AIだけ、素手
● チャットのみ(質問→回答)
● ファイル操作できない
● コマンド実行できない
● AIの頭脳だけで勝負する形

Gemma 4が動いて、日本語で会話もできて、「よし、これでいろいろやるぞ」と思ったんですよ。ファイル読ませたり、ネットで調べものさせたり。

……できない。

なにを頼んでも「テキストで答える」しかできないんです。Claude Codeだったら「このファイル読んで」「ネットで調べて」「コマンド実行して」ができるじゃないですか。Gemma 4は、チャットだけ。ファイルも読めない。検索もできない。コマンドも無理。

さっき言った「素手のAI」ってこういうことか、と。Claude Code = AI + 道具箱(ファイル操作、コマンド実行、検索、記憶……)。Gemma 4 = AIだけ。道具なし。この差、触ってみて初めてわかりました。

で、さすがにチャットだけじゃ物足りないので、Claude Codeに相談したんです。「ChatGPTみたいな画面でGemma 4を使いたいんだけど」って。そしたら「Open WebUIっていうのがありますよ」と。

Open WebUIでどう進化するのか?

STEP 1
Open WebUI追加
Docker 1コマンドで
導入
STEP 2
ブラウザUI完成
ChatGPT風の
操作画面
STEP 3
ファイル読込可能
PDF・CSV・テキスト
をアップロード
STEP 4
Web検索追加
SearXNG連携で
最新情報取得
COMPLETE
自分専用ChatGPT
0円で完全自立
プライベートAI

Open WebUIは、AIのための「画面」を作ってくれるツールです。AI自体ではなくて、AIにつなぐテレビみたいなもの。放送局(Gemma 4)の映像を映すテレビ(Open WebUI)、ってイメージしてください。

これを入れると、ブラウザでChatGPTっぽくチャットできるようになる。会話履歴も保存できる。ファイルもドラッグ&ドロップで読ませられる。さらにWeb検索まで追加できる。

Claude Codeに「Open WebUIをDocker経由で入れて」と頼んだら、自動でセットアップが始まりました。Dockerは、ソフトをまるごとパッケージにして動かす道具です。箱詰めして渡す感じ。ここもClaude Codeがぜんぶやってくれた。

あなたが試すなら「Open WebUIをDockerで入れて、Ollamaと接続して」って頼めばOK。Docker自体もなければ「Dockerも入れて」でやってくれるはずです。

ただ、すんなりとはいかなかったんですよ。まず「モデルが表示されない」ってなって。Claude Codeがログ(動作記録)を読んで「接続先の設定が間違ってますね」って直してくれた。

次にWeb検索を使えるようにしたかったんですけど、これがまた3段階の修正が必要で。まず検索用のパッケージ(ddgsっていうDuckDuckGo検索のプログラム)が足りないのをインストール。次に環境変数っていう設定を追加して、Dockerを作り直して。最後にOpen WebUIの画面で、毎回チャットするときに「+」ボタン → 「ウェブサーチ」をONにする操作が必要だとわかるまでに、30分くらいかかりました。

でも全部Claude Codeがやってくれたんですよ。私がやったのは「動かない」「なんかエラー出た」って伝えることだけ。

最終的に完成したのが、ブラウザで開ける「自分だけのChatGPT」です。チャットも、ファイル読み込みも、Web検索もできる。月額0円。データは一切外に出ない。

Open WebUIのWeb検索はChatGPTと何が違うのか?

ChatGPTのWeb検索って、AI自身がネットを見に行ってるイメージありませんか。じつはOpen WebUIのWeb検索は、ちょっと違うんですよ。検索してるのはOpen WebUI(ただのプログラム)であって、AIじゃない。

流れとしてはこう。質問する → Open WebUIがDuckDuckGoで検索 → 検索結果のテキストを取ってくる → 質問と検索結果をセットでGemma 4に渡す → Gemma 4が読んで答える。

つまりAIは「検索結果を読んでるだけ」なんです。検索そのものはAIがやってない。

ChatGPTの検索も似たような仕組みのはずなんですけど、使ってると「AIが調べてくれてる」って思い込みがちですよね。ローカルで自分でセットアップすると、こういう裏側が見えてくる。

これ知ってると、「なんか検索結果がズレてるな」ってときに原因の切り分けができるようになります。AIが悪いのか、検索が悪いのか。けっこう大事な視点です。

Gemma 4ローカルAIについてよくある疑問

Q. GPUがないノートPCでも動く?

動くことは動きます。CPUだけでも処理はできる。ただ、めちゃくちゃ遅いです。小さいモデル(E4B)ならなんとか使えます。大きいモデルは実用的じゃないと思います。もしGPUつきのPCを持ってるなら、そっちで試すほうが圧倒的に快適。

Q. Gemma 4の日本語ってどうなの?

使える。けどClaudeと比べると正直まだ粗い。「1文で答えて」って言っても長文で返ってきたりします。指示の通りやすさは、やっぱりClaudeやChatGPTのほうが上。でも「日本語が通じない」レベルではないので、壁打ちとか下書きのたたき台には十分使えます。

Q. セキュリティ的に大丈夫?怪しいソフト入れて壊れない?

今回使ったOllamaもOpen WebUIも「オープンソース」のツールです。オープンソースっていうのは、コードが全部公開されてて、だれでも中身を確認できるもの。実際、私はClaude Codeにインストール用のスクリプト(455行)を全部読ませて、セキュリティチェックしてもらいました。結果:マルウェアなし。外部への情報送信なし。ネットワーク公開はlocalhost限定(自分のPCだけ)。ただし、オープンソースは誰でもコードを変更できるので、インストールする前に最終更新日と「Issue」(報告された問題)を確認するのがおすすめです。自分で判断がむずかしければ、Claude Codeに「このリポジトリのコードを読んで、安全かチェックして」と頼めばいいです。AIにチェックさせてからインストール。これは鉄則にしてください。

Gemma 4の正直な限界は?

⚠ 知っておくべき限界
文章品質はクラウドAI以下
Claude OpusやGPT-5と比べると推論精度・日本語の自然さは劣る
エージェント作業は不可
ファイル操作・コマンド実行・Web検索は単体では不可能
VRAM不足で大モデルは動かない
26Bモデルには16GB以上のVRAMが必要。ノートPCでは厳しい
セットアップに約1時間
ChatGPTのように即使えない。ダウンロード+設定の手間がかかる

文章の品質は、ClaudeやChatGPTに比べると劣ります。とくに長い文章を書かせると、質の差がはっきり出る。「ブログ記事を1本書いて」みたいなタスクは、まだクラウドAIに任せたほうがいい。

エージェント的な自動作業もできません。「このフォルダのファイルを全部リネームして」みたいなのはClaude Codeの仕事。

VRAMが足りないと大きいモデルが使えないのも制約です。私のRTX 4070 Ti SUPER(VRAM 16GB)でも、31Bモデルはメモリ不足で動かせなかった。

そして、セットアップに1時間かかる。「今すぐAIに聞きたい」って人には、ChatGPTを開いたほうが早いです。

まとめ

「ローカルLLMを入れたらChatGPTの代わりになる」は半分嘘です。チャットはできるけど、手足がない「素手のAI」。Open WebUIで拡張して、やっとChatGPTの7割くらい。

でも、お金がかからなくて、ネットがなくても動いて、データが外に出ない。この3つが全部そろうのは、ローカルAIだけなんですよ。

で、これが「一部のエンジニアだけのおもちゃ」じゃなくなってきてるのが大事な変化だと思ってて。Claude Codeみたいなツールがあれば、コマンド知らなくても入れられる。Gemma 4みたいな高性能モデルが無料で配られる。

つまり「AIを使うためにOpenAIやGoogleにお金を払い続ける」以外の選択肢が、ふつうの人にも手が届くようになってきた。

今はまだ7割。でもこの7割が来年には8割、9割になる可能性は十分あります。そのとき「自分で入れたことがある」と「聞いたことはある」の差は、けっこうでかいんじゃないかなって。

まず一回やってみてください。「あ、AIってこういう仕組みで動いてるんだ」ってのが体感でわかるようになります。それだけでも、やる価値あると思ってます。

参考リンク

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用レビュー
-, ,

← 戻る