自宅Macを月額0円のAIサーバーに
Tailscale(無料)とllama.cppを組み合わせれば、自宅のMacが「どこからでもアクセスできるプライベートAIサーバー」になる。データはクラウドを一切通らない。月額0円。llama.cppの開発者ggerganovさん本人が、この構成で自宅のMac StudioにGemma 4を入れてiPhoneから使っている。
ローカルAIの「自宅でしか使えない」という致命的な弱点を、Tailscaleのデバイス間VPNで解消する方法だ。ブラウザだけで動くので、専用アプリも不要。
この記事では、Tailscale×ローカルAIの仕組みとセットアップ手順を、機密データをクラウドに出したくない人・自宅AIを外出先から使いたい人向けに解説する。
Tailscale × ローカルAIはどういう仕組みか?
ローカルAIのメリットって、プライバシーです。
データが外に出ない。サーバーに送られない。自分のパソコンの中で完結する。
でも弱点がある。
自宅から離れたら使えない。
パソコンの前にいる時しか使えない。
スマホからは無理。
だから「プライバシーは大事だけど、利便性を考えたらChatGPTでいいか…」ってなる。
Tailscaleは、この弱点をきれいに解決してくれます。
仕組みはシンプルで、自分のデバイス同士を「VPN(仮想の専用ネットワーク)」でつなぐ。
普通のVPNとの違いは、中央のサーバーを通さないこと。
デバイス同士が直接つながるから、速い。
しかもデータはデバイス間で暗号化されるから、途中で誰かに見られる心配もない。
つまり、外出先からスマホで自宅のAIにアクセスしても、データはクラウドを通らない。
自宅のMacとiPhoneが「同じ部屋にいるかのように」通信できる。
これ、ローカルAIの「自宅でしか使えない」っていう致命的な弱点を消してくれるんですよね。
Tailscale × ローカルAIはどんな場面で使えるか?
出先で「あの資料の中身どうだったっけ」をAIに聞ける
たとえば、取引先との打ち合わせ前にカフェでスマホを開く。
「昨日作った提案書の要点を3つにまとめて」って自宅のAIに聞ける。
提案書のデータは自宅のMacの中にある。
クラウドには一切上がってない。
でもiPhoneのブラウザから、まるで自宅にいるかのように操作できる。
ChatGPTに貼り付けるのは怖いけど、自分のMacのAIなら気にならない。
会社の機密データをAIで分析したいけど、社外に出せない時
「売上データをAIに分析させたい。でも社外のサービスに入れるのは情報セキュリティ的にNG。」
この悩み、企業でAI活用が進まない一番の理由だと思います。
Tailscale + ローカルAIなら、データは一度も社外に出ない。
分析もMacの中で完結する。
外出先からアクセスしても、通信は暗号化されたVPNの中。
「プライバシーを守りながらAI活用」の現実的な選択肢になりそうです。
月額0円で「自分専用ChatGPT」を持てる
ChatGPTは月額$20。Claudeも月額$20。
でもローカルAIなら、モデル自体は無料。
Gemma 4はGoogleが無料で公開してるオープンソースモデル。
Tailscaleも個人利用なら無料。
最初にMacを持ってれば、あとはランニングコストゼロで「自分だけのAIアシスタント」が手に入る。
しかも使い放題。トークン制限もない。何回質問しても追加料金なし。
まあ、ClaudeやChatGPTと比べるとモデルの性能は落ちるので、完全な代替にはならない。
でも「ちょっとした質問」「文書の要約」「アイデア出し」くらいなら十分使えるレベルです。
Tailscale × ローカルAIに必要なものは?
まず、Apple Silicon搭載のMac(M1以降)。
これがAIの頭脳になる。自宅に置いておく母艦です。
メモリ(RAM)は最低8GBあれば小さいモデルは動きますが、快適に使うなら16GB以上がおすすめ。
Gemma 4の一番小さいモデル(E2B)なら8GBのMacBook Airでも動きます。
26Bの大きいモデルを使いたい場合は、18GB以上必要とのこと。
次に、Tailscale。
個人利用なら無料で、最大100台のデバイスをつなげられます。
Mac、iPhone、iPad、Windows、Linux、Android、ぜんぶ対応しています。
あとは、llama.cpp。
AIモデルを動かすためのオープンソースソフトウェアで、完全無料。
ggerganovさん(今回の投稿者)が作ったソフトで、ChatGPT風のWebUI(ブラウザで使える画面)が内蔵されています。
GitHub: https://github.com/ggml-org/llama.cpp
Star数は100,000以上(2026年4月時点)。オープンソースのAIツールとしては最大級のプロジェクトです。
最後に、Gemma 4のモデルファイル。
Googleが無料公開してるAIモデルで、Apache 2.0ライセンス(商用利用もOK)。
テキスト、画像、音声に対応してるマルチモーダルモデルで、140以上の言語に対応。
日本語も使えます。
Tailscale × llama.cpp × Gemma 4はどうやってセットアップするか?
インストール
ビルド
GGUFをDL
WebUI表示
iPhoneから接続
正直に言うと、このセットアップはちょっとハードルがあります。
ターミナル(パソコンの黒い画面でコマンドを打つツール)を使う場面が出てくる。
でも、最近はClaude Codeに「この手順をやりたい。ステップバイステップで教えて」って言えば、1つずつ教えてくれる。
だからプログラミングの知識がなくても、AIに聞きながら進めればできるはず。
ステップ1: Tailscaleをインストール
MacとiPhoneの両方にTailscaleをインストール。
Macはtailscale.comからダウンロード。iPhoneはApp Storeから。
同じアカウント(GoogleアカウントやApple IDでログインできます)でログインするだけで、2つのデバイスが自動でつながる。
ここは難しくないはずです。アプリをインストールしてログインするだけなので。
ステップ2: llama.cppをMacにインストール
ここがちょっと技術的。
Claude Codeに「Mac Apple SiliconでGemma 4を動かしたい。llama.cppのインストール方法を教えて」って聞いてみてください。
環境に合わせた手順を出してくれるはずです。
ざっくり言うと、ターミナルでllama.cppのコードをダウンロードして、ビルド(組み立て)する。
Homebrewが入ってれば、数行のコマンドで終わります。
オープンソースなので、インストール前にClaude Codeにコードを読ませて「セキュリティ的に問題ないか見て」って聞いてからのほうが安心です。
オープンソースは誰でもコードを変更できるので、最終更新日やIssue(バグ報告)も確認してからインストールしてください。
ステップ3: Gemma 4のモデルをダウンロード
llama.cppが入ったら、次はAIモデル本体。
Hugging Face(AIモデルの配布サイト)からGemma 4のGGUF形式(llama.cppが読める形式)をダウンロード。
モデルのサイズは使ってるMacのメモリに合わせて選ぶ。
8GBのMacなら E2B(4bit圧縮で約5GB)、メモリに余裕があるなら E4B、32GB以上なら 26B-A4B(4bit圧縮で約18GB)が目安です。
Claude Codeに「自分のMacのメモリは○GBです。Gemma 4のどのモデルが良いですか」って聞けば、最適なモデルとダウンロードリンクを教えてくれます。
ステップ4: llama.cppのサーバーを起動する
ターミナルで1行コマンドを打つだけ。
すると、ブラウザで http://localhost:8080 にアクセスすればChatGPT風の画面が表示されます。
ここまでくれば、Macでローカルに動くAIチャットが完成。
ステップ5: Tailscale経由で外からアクセス
ここが今回のキモ。
Tailscaleに接続した状態で、iPhoneのブラウザからMacのTailscaleアドレスにアクセスする。
具体的なアドレスは、Tailscaleのアプリで確認できるはず。
http://[MacのTailscaleアドレス]:8080 にアクセスすれば、外出先からでも同じWebUIが開く。
自宅と全く同じ画面。同じ操作。
でもデータはクラウドを通ってない。MacとiPhoneが直接暗号化通信してる。
ggerganovさんのデモでは、iPhoneからストリーミングでリアルタイムに応答が返ってきてました。
よくある疑問
Q. Macの電源を切ってたら使えない?
そうです。自宅のMacが起動してないとアクセスできません。ggerganovさんはMac Studioを常時稼働させています。Mac miniも消費電力が低いので常時起動に向いています。スリープ設定を解除しておく必要があります。
Q. 回線速度は遅くならない?
Tailscaleは「ピアツーピア接続(デバイス同士が直接つながる方式)」なので、一般的なVPNよりは速いです。ただし自宅のインターネット回線の上り速度に依存するので、回線が遅い場合はレスポンスが遅くなる可能性はあります。
Q. ClaudeやChatGPTの代わりになる?
正直、完全な代わりにはならないと思います。Gemma 4は優秀ですが、Claude OpusやGPT-5と比べると推論の精度は落ちる。「機密データを扱う時だけローカルAI、普段はClaudeやChatGPT」の使い分けが現実的かなと。
Q. WindowsやLinuxでもできる?
llama.cppはWindows/Linux/Macに対応してるので、原理的にはできます。ただしGPU対応のセットアップが変わる。Apple Siliconが一番セットアップが楽です。Claude Codeに「Windows + NVIDIAでllama.cppを動かしたい」って聞けば手順を教えてくれるはずです。
Tailscale × ローカルAI構成の注意点と限界は?
まず、Macのスペックに依存する。
メモリ8GBのMacBook Airだと、使えるモデルは小さいサイズに限られる。
大きいモデルを動かすには32GB以上のメモリが必要になってくる。
Mac Studioや上位のMacBook Proでないと、本格的な運用は厳しいかも。
あと、セットアップがChatGPTのように「アカウント作ってすぐ使える」わけじゃない。
ターミナルでの作業が必要だし、モデルのダウンロードにも時間がかかる。
ggerganovさんみたいにスムーズにいくのは、彼がllama.cppを作った本人だからっていうのもある。
だれかわかる人いたら教えてくださいw的な場面は、正直あると思います。
でも、Claude Codeがあれば、エラーが出てもコピペして「これ何が問題?」って聞ける。
1人で全部理解する必要はないんですよね。
Tailscaleで「自分だけのAI」を持つと何が変わるか?
今の時代、AIを使うには毎月サブスクを払うのが当たり前になってる。
ChatGPT $20。Claude $20。Gemini $20。
全部使ったら月$60以上。
しかもデータはぜんぶ相手のサーバーに行く。
Tailscale + llama.cpp + Gemma 4の組み合わせは、その構造から抜け出す選択肢。
初期投資(Mac)は必要だけど、ランニングコストはゼロ。
データは自分の手元から離れない。
使い放題で、制限もない。
しかも外出先からも使える。
「AIを借りる」から「AIを持つ」へ。
この選択肢があることを知っておくだけで、AIとの付き合い方が変わると思ってます。
もちろん、ClaudeやChatGPTの品質には敵わない場面が多い。
でも「機密データだけはローカル」「普段使いはクラウド」の組み合わせなら、プライバシーと利便性の両方を取れる。
まとめ
Tailscale + llama.cpp + Gemma 4で、自宅のMacを「どこからでもアクセスできるプライベートAI」にできる。
データはクラウドに上がらない。通信は暗号化。月額0円。
セットアップにはターミナル作業が必要だけど、Claude Codeに聞きながらやれば初心者でもいける。
まずはTailscaleを自分のMacとiPhoneに入れてみてください。
それだけで「自宅のパソコンに外からアクセスする」感覚がつかめます。
参考リンク
・Tailscale公式サイト: https://tailscale.com/
・llama.cpp GitHub: https://github.com/ggml-org/llama.cpp
・Gemma 4(Google公式): https://ai.google.dev/gemma
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。