自宅Macを月額0円のAIサーバーに
Tailscale(無料)とllama.cppを組み合わせれば、
自宅のMacが「どこからでもアクセスできるプライベートAIサーバー」になる。
データはクラウドを一切通らない。
月額0円。
llama.cppの開発者ggerganovさん本人が、
この構成で自宅のMac StudioにGemma 4を入れてiPhoneから使っている。
ローカルAIの「自宅でしか使えない」という致命的な弱点を、
Tailscaleのデバイス間VPNで解消する方法だ。
ブラウザだけで動くので、
専用アプリも不要。
この記事では、
Tailscale×ローカルAIの仕組みとセットアップ手順を、
機密データをクラウドに出したくない人・自宅AIを外出先から使いたい人向けに解説する。
Tailscale × ローカルAIはどういう仕組みか?
ローカルAIのメリットって、プライバシーです。
データが外に出ない。サーバーに送られない。自分のパソコンの中で完結する。
でも弱点がある。
自宅から離れたら使えない。
パソコンの前にいる時しか使えない。
スマホからは無理。
だから「プライバシーは大事だけど、
利便性を考えたらChatGPTでいいか…」ってなる。
Tailscaleは、この弱点をきれいに解決してくれます。
仕組みはシンプルで、
自分のデバイス同士を「VPN(仮想の専用ネットワーク)」でつなぐ。
普通のVPNとの違いは、中央のサーバーを通さないこと。
デバイス同士が直接つながるから、速い。
しかもデータはデバイス間で暗号化されるから、途中で誰かに見られる心配もない。
つまり、
外出先からスマホで自宅のAIにアクセスしても、
データはクラウドを通らない。
自宅のMacとiPhoneが「同じ部屋にいるかのように」通信できる。
これ、
ローカルAIの「自宅でしか使えない」っていう致命的な弱点を消してくれるんですよね。
Tailscale × ローカルAIはどんな場面で使えるか?
出先で「あの資料の中身どうだったっけ」をAIに聞ける
たとえば、取引先との打ち合わせ前にカフェでスマホを開く。
「昨日作った提案書の要点を3つにまとめて」って自宅のAIに聞ける。
提案書のデータは自宅のMacの中にある。
クラウドには一切上がってない。
でもiPhoneのブラウザから、まるで自宅にいるかのように操作できる。
ChatGPTに貼り付けるのは怖いけど、自分のMacのAIなら気にならない。
会社の機密データをAIで分析したいけど、社外に出せない時
「売上データをAIに分析させたい。
でも社外のサービスに入れるのは情報セキュリティ的にNG。
」
この悩み、企業でAI活用が進まない一番の理由だと思います。
Tailscale + ローカルAIなら、データは一度も社外に出ない。
分析もMacの中で完結する。
外出先からアクセスしても、通信は暗号化されたVPNの中。
「プライバシーを守りながらAI活用」の現実的な選択肢になりそうです。
月額0円で「自分専用ChatGPT」を持てる
ChatGPTは月額$20。Claudeも月額$20。
でもローカルAIなら、モデル自体は無料。
Gemma 4はGoogleが無料で公開してるオープンソースモデル。
Tailscaleも個人利用なら無料。
最初にMacを持ってれば、
あとはランニングコストゼロで「自分だけのAIアシスタント」が手に入る。
しかも使い放題。トークン制限もない。何回質問しても追加料金なし。
まあ、
ClaudeやChatGPTと比べるとモデルの性能は落ちるので、
完全な代替にはならない。
でも「ちょっとした質問」「文書の要約」「アイデア出し」くらいなら十分使えるレベルです。
Tailscale × ローカルAIに必要なものは?
まず、Apple Silicon搭載のMac(M1以降)。
これがAIの頭脳になる。自宅に置いておく母艦です。
メモリ(RAM)は最低8GBあれば小さいモデルは動きますが、
快適に使うなら16GB以上がおすすめ。
Gemma 4の一番小さいモデル(E2B)なら8GBのMacBook Airでも動きます。
26Bの大きいモデルを使いたい場合は、18GB以上必要とのこと。
次に、Tailscale。
個人利用なら無料で、最大100台のデバイスをつなげられます。
Mac、
iPhone、
iPad、
Windows、
Linux、
Android、
ぜんぶ対応しています。
あとは、llama.cpp。
AIモデルを動かすためのオープンソースソフトウェアで、完全無料。
ggerganovさん(今回の投稿者)が作ったソフトで、
ChatGPT風のWebUI(ブラウザで使える画面)が内蔵されています。
GitHub: https://github.com/ggml-org/llama.cpp
Star数は100,000以上(2026年4月時点)。
オープンソースのAIツールとしては最大級のプロジェクトです。
最後に、Gemma 4のモデルファイル。
Googleが無料公開してるAIモデルで、
Apache 2.0ライセンス(商用利用もOK)。
テキスト、
画像、
音声に対応してるマルチモーダルモデルで、
140以上の言語に対応。
日本語も使えます。
Tailscale × llama.cpp × Gemma 4はどうやってセットアップするか?
インストール
ビルド
GGUFをDL
WebUI表示
iPhoneから接続
正直に言うと、このセットアップはちょっとハードルがあります。
ターミナル(パソコンの黒い画面でコマンドを打つツール)を使う場面が出てくる。
でも、
最近はClaude Codeに「この手順をやりたい。
ステップバイステップで教えて」って言えば、
1つずつ教えてくれる。
だからプログラミングの知識がなくても、AIに聞きながら進めればできるはず。
ステップ1: Tailscaleをインストール
MacとiPhoneの両方にTailscaleをインストール。
Macはtailscale.comからダウンロード。
iPhoneはApp Storeから。
同じアカウント(GoogleアカウントやApple IDでログインできます)でログインするだけで、
2つのデバイスが自動でつながる。
ここは難しくないはずです。アプリをインストールしてログインするだけなので。
ステップ2: llama.cppをMacにインストール
ここがちょっと技術的。
Claude Codeに「Mac Apple SiliconでGemma 4を動かしたい。
llama.cppのインストール方法を教えて」って聞いてみてください。
環境に合わせた手順を出してくれるはずです。
ざっくり言うと、
ターミナルでllama.cppのコードをダウンロードして、
ビルド(組み立て)する。
Homebrewが入ってれば、数行のコマンドで終わります。
オープンソースなので、
インストール前にClaude Codeにコードを読ませて「セキュリティ的に問題ないか見て」って聞いてからのほうが安心です。
オープンソースは誰でもコードを変更できるので、
最終更新日やIssue(バグ報告)も確認してからインストールしてください。
ステップ3: Gemma 4のモデルをダウンロード
llama.cppが入ったら、次はAIモデル本体。
Hugging Face(AIモデルの配布サイト)からGemma 4のGGUF形式(llama.cppが読める形式)をダウンロード。
モデルのサイズは使ってるMacのメモリに合わせて選ぶ。
8GBのMacなら E2B(4bit圧縮で約5GB)、
メモリに余裕があるなら E4B、
32GB以上なら 26B-A4B(4bit圧縮で約18GB)が目安です。
Claude Codeに「自分のMacのメモリは○GBです。
Gemma 4のどのモデルが良いですか」って聞けば、
最適なモデルとダウンロードリンクを教えてくれます。
ステップ4: llama.cppのサーバーを起動する
ターミナルで1行コマンドを打つだけ。
すると、
ブラウザで http://localhost:8080 にアクセスすればChatGPT風の画面が表示されます。
ここまでくれば、Macでローカルに動くAIチャットが完成。
ステップ5: Tailscale経由で外からアクセス
ここが今回のキモ。
Tailscaleに接続した状態で、
iPhoneのブラウザからMacのTailscaleアドレスにアクセスする。
具体的なアドレスは、Tailscaleのアプリで確認できるはず。
http://[MacのTailscaleアドレス]:8080 にアクセスすれば、
外出先からでも同じWebUIが開く。
自宅と全く同じ画面。同じ操作。
でもデータはクラウドを通ってない。MacとiPhoneが直接暗号化通信してる。
ggerganovさんのデモでは、
iPhoneからストリーミングでリアルタイムに応答が返ってきてました。
よくある疑問
Q. Macの電源を切ってたら使えない?
そうです。
自宅のMacが起動してないとアクセスできません。
ggerganovさんはMac Studioを常時稼働させています。
Mac miniも消費電力が低いので常時起動に向いています。
スリープ設定を解除しておく必要があります。
Q. 回線速度は遅くならない?
Tailscaleは「ピアツーピア接続(デバイス同士が直接つながる方式)」なので、
一般的なVPNよりは速いです。
ただし自宅のインターネット回線の上り速度に依存するので、
回線が遅い場合はレスポンスが遅くなる可能性はあります。
Q. ClaudeやChatGPTの代わりになる?
正直、
完全な代わりにはならないと思います。
Gemma 4は優秀ですが、
Claude OpusやGPT-5と比べると推論の精度は落ちる。
「機密データを扱う時だけローカルAI、
普段はClaudeやChatGPT」の使い分けが現実的かなと。
Q. WindowsやLinuxでもできる?
llama.cppはWindows/Linux/Macに対応してるので、
原理的にはできます。
ただしGPU対応のセットアップが変わる。
Apple Siliconが一番セットアップが楽です。
Claude Codeに「Windows + NVIDIAでllama.cppを動かしたい」って聞けば手順を教えてくれるはずです。
Tailscale × ローカルAI構成の注意点と限界は?
まず、Macのスペックに依存する。
メモリ8GBのMacBook Airだと、
使えるモデルは小さいサイズに限られる。
大きいモデルを動かすには32GB以上のメモリが必要になってくる。
Mac Studioや上位のMacBook Proでないと、
本格的な運用は厳しいかも。
あと、
セットアップがChatGPTのように「アカウント作ってすぐ使える」わけじゃない。
ターミナルでの作業が必要だし、モデルのダウンロードにも時間がかかる。
ggerganovさんみたいにスムーズにいくのは、
彼がllama.cppを作った本人だからっていうのもある。
だれかわかる人いたら教えてくださいw的な場面は、正直あると思います。
でも、
Claude Codeがあれば、
エラーが出てもコピペして「これ何が問題?」って聞ける。
1人で全部理解する必要はないんですよね。
Tailscaleで「自分だけのAI」を持つと何が変わるか?
今の時代、AIを使うには毎月サブスクを払うのが当たり前になってる。
ChatGPT $20。Claude $20。Gemini $20。
全部使ったら月$60以上。
しかもデータはぜんぶ相手のサーバーに行く。
Tailscale + llama.cpp + Gemma 4の組み合わせは、
その構造から抜け出す選択肢。
初期投資(Mac)は必要だけど、ランニングコストはゼロ。
データは自分の手元から離れない。
使い放題で、制限もない。
しかも外出先からも使える。
「AIを借りる」から「AIを持つ」へ。
この選択肢があることを知っておくだけで、
AIとの付き合い方が変わると思ってます。
もちろん、ClaudeやChatGPTの品質には敵わない場面が多い。
でも「機密データだけはローカル」「普段使いはクラウド」の組み合わせなら、
プライバシーと利便性の両方を取れる。
まとめ
Tailscale + llama.cpp + Gemma 4で、
自宅のMacを「どこからでもアクセスできるプライベートAI」にできる。
データはクラウドに上がらない。通信は暗号化。月額0円。
セットアップにはターミナル作業が必要だけど、
Claude Codeに聞きながらやれば初心者でもいける。
まずはTailscaleを自分のMacとiPhoneに入れてみてください。
それだけで「自宅のパソコンに外からアクセスする」感覚がつかめます。
参考リンク
・Tailscale公式サイト: https://tailscale.com/
・llama.cpp GitHub: https://github.com/ggml-org/llama.cpp
・Gemma 4(Google公式): https://ai.google.dev/gemma
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。