AI活用全般

Tailscale × Gemma 4|自宅Macを月額0円のAIサーバーにして外出先から使う方法

PICKUP
Tailscale × Gemma 4
自宅Macを月額0円のAIサーバーに
外出先からプライベートAIにアクセスする方法
Tailscalellama.cppGemma 4

Tailscale(無料)とllama.cppを組み合わせれば、自宅のMacが「どこからでもアクセスできるプライベートAIサーバー」になる。データはクラウドを一切通らない。月額0円。llama.cppの開発者ggerganovさん本人が、この構成で自宅のMac StudioにGemma 4を入れてiPhoneから使っている。

ローカルAIの「自宅でしか使えない」という致命的な弱点を、Tailscaleのデバイス間VPNで解消する方法だ。ブラウザだけで動くので、専用アプリも不要。

この記事では、Tailscale×ローカルAIの仕組みとセットアップ手順を、機密データをクラウドに出したくない人・自宅AIを外出先から使いたい人向けに解説する。

Tailscale × ローカルAIはどういう仕組みか?

💻
自宅Mac
llama.cpp + Gemma 4
← →
Tailscale VPN
暗号化・P2P接続
← →
📱
iPhone / iPad
ブラウザでアクセス
データはクラウドを通らない · デバイス間で直接暗号化通信

ローカルAIのメリットって、プライバシーです。

データが外に出ない。サーバーに送られない。自分のパソコンの中で完結する。

でも弱点がある。

自宅から離れたら使えない。

パソコンの前にいる時しか使えない。

スマホからは無理。

だから「プライバシーは大事だけど、利便性を考えたらChatGPTでいいか…」ってなる。

Tailscaleは、この弱点をきれいに解決してくれます。

仕組みはシンプルで、自分のデバイス同士を「VPN(仮想の専用ネットワーク)」でつなぐ。

普通のVPNとの違いは、中央のサーバーを通さないこと。

デバイス同士が直接つながるから、速い。

しかもデータはデバイス間で暗号化されるから、途中で誰かに見られる心配もない。

つまり、外出先からスマホで自宅のAIにアクセスしても、データはクラウドを通らない。

自宅のMacとiPhoneが「同じ部屋にいるかのように」通信できる。

これ、ローカルAIの「自宅でしか使えない」っていう致命的な弱点を消してくれるんですよね。

Tailscale × ローカルAIはどんな場面で使えるか?

📋
出先で資料をAIに聞ける
自宅Macの中の提案書や資料を、カフェからスマホで要約・質問できる
🔒
機密データをAI分析できる
売上データや社内文書を社外サービスに渡さずにAIで処理できる
💰
月額0円で自分専用AI
Gemma 4は無料、Tailscaleも無料。使い放題でトークン制限なし

出先で「あの資料の中身どうだったっけ」をAIに聞ける

たとえば、取引先との打ち合わせ前にカフェでスマホを開く。

「昨日作った提案書の要点を3つにまとめて」って自宅のAIに聞ける。

提案書のデータは自宅のMacの中にある。

クラウドには一切上がってない。

でもiPhoneのブラウザから、まるで自宅にいるかのように操作できる。

ChatGPTに貼り付けるのは怖いけど、自分のMacのAIなら気にならない。

会社の機密データをAIで分析したいけど、社外に出せない時

「売上データをAIに分析させたい。でも社外のサービスに入れるのは情報セキュリティ的にNG。」

この悩み、企業でAI活用が進まない一番の理由だと思います。

Tailscale + ローカルAIなら、データは一度も社外に出ない。

分析もMacの中で完結する。

外出先からアクセスしても、通信は暗号化されたVPNの中。

「プライバシーを守りながらAI活用」の現実的な選択肢になりそうです。

月額0円で「自分専用ChatGPT」を持てる

ChatGPTは月額$20。Claudeも月額$20。

でもローカルAIなら、モデル自体は無料。

Gemma 4はGoogleが無料で公開してるオープンソースモデル。

Tailscaleも個人利用なら無料。

最初にMacを持ってれば、あとはランニングコストゼロで「自分だけのAIアシスタント」が手に入る。

しかも使い放題。トークン制限もない。何回質問しても追加料金なし。

まあ、ClaudeやChatGPTと比べるとモデルの性能は落ちるので、完全な代替にはならない。

でも「ちょっとした質問」「文書の要約」「アイデア出し」くらいなら十分使えるレベルです。

Tailscale × ローカルAIに必要なものは?

💻
母艦
Mac(M1以降)
RAM 16GB以上推奨
🔐
VPN
Tailscale
個人利用無料・100台まで
実行環境
llama.cpp
WebUI内蔵・Star 10万超
🤖
AIモデル
Gemma 4
Apache 2.0・140言語対応

まず、Apple Silicon搭載のMac(M1以降)。

これがAIの頭脳になる。自宅に置いておく母艦です。

メモリ(RAM)は最低8GBあれば小さいモデルは動きますが、快適に使うなら16GB以上がおすすめ。

Gemma 4の一番小さいモデル(E2B)なら8GBのMacBook Airでも動きます。

26Bの大きいモデルを使いたい場合は、18GB以上必要とのこと。

次に、Tailscale。

個人利用なら無料で、最大100台のデバイスをつなげられます。

Mac、iPhone、iPad、Windows、Linux、Android、ぜんぶ対応しています。

あとは、llama.cpp。

AIモデルを動かすためのオープンソースソフトウェアで、完全無料。

ggerganovさん(今回の投稿者)が作ったソフトで、ChatGPT風のWebUI(ブラウザで使える画面)が内蔵されています。

GitHub: https://github.com/ggml-org/llama.cpp

Star数は100,000以上(2026年4月時点)。オープンソースのAIツールとしては最大級のプロジェクトです。

最後に、Gemma 4のモデルファイル。

Googleが無料公開してるAIモデルで、Apache 2.0ライセンス(商用利用もOK)。

テキスト、画像、音声に対応してるマルチモーダルモデルで、140以上の言語に対応。

日本語も使えます。

Tailscale × llama.cpp × Gemma 4はどうやってセットアップするか?

STEP 1
Tailscale導入
Mac + iPhoneに
インストール
STEP 2
llama.cpp導入
ターミナルで
ビルド
STEP 3
モデル取得
Gemma 4の
GGUFをDL
STEP 4
サーバー起動
localhost:8080で
WebUI表示
STEP 5
外部アクセス
Tailscale経由で
iPhoneから接続

正直に言うと、このセットアップはちょっとハードルがあります。

ターミナル(パソコンの黒い画面でコマンドを打つツール)を使う場面が出てくる。

でも、最近はClaude Codeに「この手順をやりたい。ステップバイステップで教えて」って言えば、1つずつ教えてくれる。

だからプログラミングの知識がなくても、AIに聞きながら進めればできるはず。

ステップ1: Tailscaleをインストール

MacとiPhoneの両方にTailscaleをインストール。

Macはtailscale.comからダウンロード。iPhoneはApp Storeから。

同じアカウント(GoogleアカウントやApple IDでログインできます)でログインするだけで、2つのデバイスが自動でつながる。

ここは難しくないはずです。アプリをインストールしてログインするだけなので。

ステップ2: llama.cppをMacにインストール

ここがちょっと技術的。

Claude Codeに「Mac Apple SiliconでGemma 4を動かしたい。llama.cppのインストール方法を教えて」って聞いてみてください。

環境に合わせた手順を出してくれるはずです。

ざっくり言うと、ターミナルでllama.cppのコードをダウンロードして、ビルド(組み立て)する。

Homebrewが入ってれば、数行のコマンドで終わります。

オープンソースなので、インストール前にClaude Codeにコードを読ませて「セキュリティ的に問題ないか見て」って聞いてからのほうが安心です。

オープンソースは誰でもコードを変更できるので、最終更新日やIssue(バグ報告)も確認してからインストールしてください。

ステップ3: Gemma 4のモデルをダウンロード

llama.cppが入ったら、次はAIモデル本体。

Hugging Face(AIモデルの配布サイト)からGemma 4のGGUF形式(llama.cppが読める形式)をダウンロード。

モデルのサイズは使ってるMacのメモリに合わせて選ぶ。

8GBのMacなら E2B(4bit圧縮で約5GB)、メモリに余裕があるなら E4B、32GB以上なら 26B-A4B(4bit圧縮で約18GB)が目安です。

Claude Codeに「自分のMacのメモリは○GBです。Gemma 4のどのモデルが良いですか」って聞けば、最適なモデルとダウンロードリンクを教えてくれます。

ステップ4: llama.cppのサーバーを起動する

ターミナルで1行コマンドを打つだけ。

すると、ブラウザで http://localhost:8080 にアクセスすればChatGPT風の画面が表示されます。

ここまでくれば、Macでローカルに動くAIチャットが完成。

ステップ5: Tailscale経由で外からアクセス

ここが今回のキモ。

Tailscaleに接続した状態で、iPhoneのブラウザからMacのTailscaleアドレスにアクセスする。

具体的なアドレスは、Tailscaleのアプリで確認できるはず。

http://[MacのTailscaleアドレス]:8080 にアクセスすれば、外出先からでも同じWebUIが開く。

自宅と全く同じ画面。同じ操作。

でもデータはクラウドを通ってない。MacとiPhoneが直接暗号化通信してる。

ggerganovさんのデモでは、iPhoneからストリーミングでリアルタイムに応答が返ってきてました。

よくある疑問

Q. Macの電源を切ってたら使えない?

そうです。自宅のMacが起動してないとアクセスできません。ggerganovさんはMac Studioを常時稼働させています。Mac miniも消費電力が低いので常時起動に向いています。スリープ設定を解除しておく必要があります。

Q. 回線速度は遅くならない?

Tailscaleは「ピアツーピア接続(デバイス同士が直接つながる方式)」なので、一般的なVPNよりは速いです。ただし自宅のインターネット回線の上り速度に依存するので、回線が遅い場合はレスポンスが遅くなる可能性はあります。

Q. ClaudeやChatGPTの代わりになる?

正直、完全な代わりにはならないと思います。Gemma 4は優秀ですが、Claude OpusやGPT-5と比べると推論の精度は落ちる。「機密データを扱う時だけローカルAI、普段はClaudeやChatGPT」の使い分けが現実的かなと。

Q. WindowsやLinuxでもできる?

llama.cppはWindows/Linux/Macに対応してるので、原理的にはできます。ただしGPU対応のセットアップが変わる。Apple Siliconが一番セットアップが楽です。Claude Codeに「Windows + NVIDIAでllama.cppを動かしたい」って聞けば手順を教えてくれるはずです。

Tailscale × ローカルAI構成の注意点と限界は?

⚠ 注意点と限界
Macのスペックに依存
メモリ8GBだと小さいモデルのみ。本格運用には32GB以上が必要
セットアップにターミナル作業が必要
ChatGPTのように「すぐ使える」わけではない。Claude Codeに聞きながら進める前提
Macの常時起動が必要
電源を切ると外出先からアクセスできない。スリープ解除設定が必要
最先端モデルには性能で劣る
Claude OpusやGPT-5と比べると推論精度は落ちる。機密データ用と割り切る

まず、Macのスペックに依存する。

メモリ8GBのMacBook Airだと、使えるモデルは小さいサイズに限られる。

大きいモデルを動かすには32GB以上のメモリが必要になってくる。

Mac Studioや上位のMacBook Proでないと、本格的な運用は厳しいかも。

あと、セットアップがChatGPTのように「アカウント作ってすぐ使える」わけじゃない。

ターミナルでの作業が必要だし、モデルのダウンロードにも時間がかかる。

ggerganovさんみたいにスムーズにいくのは、彼がllama.cppを作った本人だからっていうのもある。

だれかわかる人いたら教えてくださいw的な場面は、正直あると思います。

でも、Claude Codeがあれば、エラーが出てもコピペして「これ何が問題?」って聞ける。

1人で全部理解する必要はないんですよね。

Tailscaleで「自分だけのAI」を持つと何が変わるか?

BEFORE — AIを借りる
● 月額$20〜$60のサブスク
● データは相手のサーバーに送信
● トークン制限・利用上限あり
● 機密データは怖くて渡せない
AFTER — AIを持つ
● ランニングコスト0円
● データは自分のMacから出ない
● 使い放題・制限なし
● 外出先からもアクセス可能

今の時代、AIを使うには毎月サブスクを払うのが当たり前になってる。

ChatGPT $20。Claude $20。Gemini $20。

全部使ったら月$60以上。

しかもデータはぜんぶ相手のサーバーに行く。

Tailscale + llama.cpp + Gemma 4の組み合わせは、その構造から抜け出す選択肢。

初期投資(Mac)は必要だけど、ランニングコストはゼロ。

データは自分の手元から離れない。

使い放題で、制限もない。

しかも外出先からも使える。

「AIを借りる」から「AIを持つ」へ。

この選択肢があることを知っておくだけで、AIとの付き合い方が変わると思ってます。

もちろん、ClaudeやChatGPTの品質には敵わない場面が多い。

でも「機密データだけはローカル」「普段使いはクラウド」の組み合わせなら、プライバシーと利便性の両方を取れる。

まとめ

Tailscale + llama.cpp + Gemma 4で、自宅のMacを「どこからでもアクセスできるプライベートAI」にできる。

データはクラウドに上がらない。通信は暗号化。月額0円。

セットアップにはターミナル作業が必要だけど、Claude Codeに聞きながらやれば初心者でもいける。

まずはTailscaleを自分のMacとiPhoneに入れてみてください。

それだけで「自宅のパソコンに外からアクセスする」感覚がつかめます。

参考リンク

・Tailscale公式サイト: https://tailscale.com/

・llama.cpp GitHub: https://github.com/ggml-org/llama.cpp

・Gemma 4(Google公式): https://ai.google.dev/gemma

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-, , ,

← 戻る