AI活用全般

CyanPuppetsとは?Webカメラ1台でAIモーキャプ|料金・使い方・他ツール比較

CyanPuppetsは、
Webカメラ1台で全身・顔・指のモーションキャプチャができるAIツール。

スーツもセンサーも不要で、
無料版から始められる。
追跡ポイントは208点以上、
遅延は0.1秒以下。

この記事では、
料金・使い方・仕組みを他のAIモーキャプツールとの比較付きで解説する。

CyanPuppetsで何が変わる?従来のモーキャプとの違い

BEFORE ― 従来のスーツ型モーキャプ
専用スーツ+センサー+スタジオが必要。初期費用30万〜数百万円。キャリブレーションに30分以上。指の追跡は別売グローブ(追加10万円〜)。
AFTER ― CyanPuppets(AIカメラ型)
Webカメラ1台+PCだけ。無料版あり(有料は月$50)。起動→カメラONで数分。体+顔+指を208点で同時追跡。

モーションキャプチャとは、
人間の動きをデータにして3Dキャラクターに反映させる技術。
映画やゲームでキャラクターがリアルに動いてるのは、
だいたいこれ。

従来のモーキャプは「スーツ型」が主流だった。
体中にセンサーをつけて、
専用のスタジオで撮影する。
値段は安くても30万円。
プロ向けだと数百万円。
個人クリエイターが手を出せる世界じゃなかった。

CyanPuppetsは、そこをAIで突破した。

比べるポイント従来のスーツ型モーキャプ(Xsens等)CyanPuppets(AIカメラ型)
必要な機材専用スーツ+センサー+スタジオWebカメラ1台+PC
初期費用30万〜数百万円無料版あり。有料は月$50(約7,500円)
セットアップスーツ着用+キャリブレーション(30分〜)ソフト起動→カメラON(数分)
追跡ポイント数17〜23点(製品による)208点以上(体+手+顔の全関節)
指の動き別売グローブが必要(追加10万円〜)標準で対応
顔の表情別売ヘッドセットが必要標準で対応
精度(腕の誤差)1cm以下平均3cm以下(最小1cm〜最大5cm)
遅延リアルタイム0.1秒以下

ポイントは「追跡ポイント208点以上」。
スーツ型は体にセンサーを貼るので、
物理的にセンサーの数に限界がある。
でもAIは映像から推測するので、
理論上いくらでも細かく追跡できる。
だからCyanPuppetsは顔の表情・手の指・体の関節を全部いっぺんにカバーできる。

精度だけ見ると、
スーツ型の「1cm以下」にはまだ負ける。
ただし、
VTuberやSNS向けの動画なら「平均3cm」の誤差で困ることはほぼない。
映画のフルCGシーンじゃなければ、
十分実用的なレベルだと思う。

CyanPuppetsはどういう仕組みで動いてるの?

Webカメラ(2D映像)
AIモデル(9億パラメータ)
2D→3D姿勢復元 + バイオメカニクス補正
体 33点
顔 140点
手 21点×2
AIオートリターゲット → 任意の3Dキャラに適用

「Webカメラだけでなんで3Dの動きがわかるの?」と思うかもしれない。

普通のカメラは2D(平面)しか撮れない。
でもCyanPuppetsのAIは、
2Dの映像から「この人の腕は今このくらいの角度で、
奥行きはこのくらい」と推測できる。

たとえるなら、
影絵を見て「元の形」を当てるようなもの。
人間でもある程度はできるが、
CyanPuppetsのAIモデルは9億パラメータ。
膨大な人体の動きデータを学習済み。
だから2Dの映像から3Dの姿勢を「復元」できる。

しかも体の構造を知っている。
関節の可動域、
骨の長さの比率。
だから物理的にありえないポーズにはならない。
これが「バイオメカニクスアルゴリズム」と呼ばれている部分。
簡単に言うと「人体の動きの法則を知ってるAI」。

他のAIモーキャプとの違いも書いておく。
たとえばGoogleのMediaPipe。
2Dのポイント検出まではやってくれる。
でも3Dへの変換や、
表情・指の同時追跡は別途組む必要がある。

CyanPuppetsは全部入り。
2D検出→3D変換→キャラへの適用。
1つのソフトで完結するのが大きな違い。

もう1つ面白いのが「AIオートリターゲット」。
通常、
モーキャプデータを別のキャラクターに使い回すには「ボーン(骨格)のマッピング」という地味で面倒な作業が必要。
キャラクターごとに骨の名前も数も違うので、
「この骨はあの骨に対応してる」と1本ずつ指定する。

CyanPuppetsはこれをAIが自動でやってくれる。
MetaHuman、
VRM、
MMD、
Mixamo……メジャーな骨格システムならワンクリックで対応。
この「面倒な調整をAIがやる」という設計思想が、
CyanPuppetsの核心だと思う。

CyanPuppetsが使える場面は?

🎬
VTuber配信
全身+顔+指が同時に動く。遅延0.1秒以下でリアルタイム配信OK
🎮
ゲーム開発
Unity/UE対応。FBX出力で他の3Dソフトにも持っていける
📽
動画からモーキャプ
既存のダンス動画等をアップロードして3Dキャラに移植。無料版90秒まで
📱
SNSコンテンツ
TikTokやYouTubeで3Dキャラが解説する動画を制作

VTuberの全身モーションを低コストで実現する

VTuberで「顔だけ」のトラッキングならFaceRigなどで安くできる。
でも全身を動かそうとすると、
突然ハードルが跳ね上がる。

CyanPuppetsなら無料版でも全身+顔+指が同時に動くので、
「上半身バストアップ配信」から「全身ダンス配信」に進化できる。
0.1秒以下の遅延なので、
リアルタイム配信でも使えるレベル。

ゲーム開発のプロトタイプを実際の動きで作る

インディーゲームを作ってて「キャラの動きをつけたいけど、
モーキャプは高すぎる」って人、
多いと思う。

CyanPuppetsはUnityとUnreal Engineに対応してるので、
撮影した動きをそのままゲームキャラに適用できる。
FBX形式で書き出せるから、
Blenderなど他の3Dソフトにも持っていける。

プロの映画制作レベルの精度は出ないけど、
プロトタイプやインディーゲームなら十分。

動画の3Dキャラクターに既存の動画から動きを移植する

リアルタイムじゃなくて、
動画ファイルからもモーキャプできる。
たとえばダンス動画をアップロードして、
その動きを3Dキャラクターに移す。

無料版だと90秒まで、
$30の買い切り版で180秒まで対応している。
TikTokやYouTubeで「キャラクターが踊ってる動画」を作りたい人にはぴったり。

SNSコンテンツに3Dキャラを登場させる

たとえばAIツールの紹介動画。
テキストと画面録画だけだと、
どうしても単調になる。
そこに3Dキャラクターが解説してくれたら、
一気に目を引くコンテンツになる。

TikTokのスライド動画や解説系YouTubeで、
キャラクターが身振り手振りで説明してるコンテンツ、
最近よく見る。
CyanPuppetsで録った動きを3Dキャラに移植すれば、
同様のコンテンツを作れる。

AI動画生成ツールで作った映像にモーキャプしたキャラを重ねる、
という組み合わせも実用的だと思う。

CyanPuppetsの料金は?必要なものは?

💰
無料版
0円で体験可
💳
商用利用(月額)
$50/月(約7,500円)
💻
推奨GPU
NVIDIA RTX 4080
📷
Webカメラ
1080p・90°視野角

料金から。明確にプランが分かれている。

プラン料金できること
無料版0円シングルカメラ、動画90秒まで、体+顔+指、FBX出力。商用利用は不可
動画アップロード拡張$30(約4,500円)買い切り動画180秒まで。商用不可
Personal(月額)$50/月(約7,500円)デュアルカメラ対応、精度20%向上、商用OK
Personal(年額)$599/年(約90,000円)2Kカメラ対応、精度30%向上、商用OK
Enterprise$1,361/年(約200,000円)4Kカメラ+産業用カメラ付属、精度40%向上、LAN複数人対応

無料版で「試してみる」→気に入ったら月額$50に上げる、という流れが現実的。

次に必要なもの。

パソコン(Windows):

項目最低スペック推奨スペック
OSWindows 10 64bitWindows 10/11 64bit
CPUIntel/AMD 4コア 2.5GHz同等以上
RAM16GB32GB
GPUNVIDIA RTX 3060(8GB)NVIDIA RTX 4080
ストレージ100GB空き200GB空き

Webカメラ: 1080p・90°視野角のもの。数千円のもので大丈夫。

対応言語: 英語・中国語・日本語。日本語に対応しているのは嬉しいポイント。

ただし注意点が2つ。
Macには対応していない。
Windows専用。
あとGPUがNVIDIA限定なので、
AMDのグラフィックボードでは動かない。

CyanPuppetsの使い方は?ステップバイステップ

STEP 1
ダウンロード
公式ショップから無料版を取得
STEP 2
カメラON
立つだけでAIが自動検出
STEP 3
キャラ選択
VRM/FBXも読み込み可
STEP 4
FBX書き出し
Unity/UE/Blenderで使える

無料版で始める手順を書く。

ステップ1: ソフトをダウンロードする

CyanPuppetsの公式ショップ(cyanpuppets.myshopify.com)にアクセス。
「Free Version」を選んでダウンロード。
Discordコミュニティからも取得できる。
Steamにも登録されているが、
Coming Soonの状態。

ステップ2: インストールする

ダウンロードしたファイルを実行。
インストール先はデフォルトのままでOK。
100GBの空き容量が必要なので、
Cドライブがいっぱいの人は別ドライブを指定すること。

もしインストール中に英語のエラーが出たら、
そのエラー文をそのままChatGPTやClaudeに貼り付けて「これどういう意味?」と聞くのが最速。

ステップ3: Webカメラを接続して起動する

ソフトを起動すると、
カメラの映像が表示される。
カメラの前に立つと、
AIが自動で体のポイントを検出し始める。
キャリブレーション(調整)の手順は不要。
立つだけでいい。

従来のスーツ型だとキャリブレーションに30分かかることもあるので、
ここは大きな差。

ステップ4: キャラクターを選ぶ

ソフト内にプリセットのキャラクターがある。
手持ちのキャラクターを使いたい場合は、
VRM形式やFBX形式で読み込める。
骨格の対応づけはAIが自動でやってくれるので、
手動で1本ずつ設定する必要はない。

ステップ5: リアルタイムキャプチャする or 動画をアップロードする

2つのモードがある。

リアルタイムモード: カメラの前で動くと、
キャラクターがリアルタイムで追従。
配信やプレビューに使える。

動画アップロードモード: 既存の動画ファイル(MP4/MOV/AVI等)をアップして、
モーションデータに変換。
無料版は90秒まで。

ステップ6: FBXで書き出す

完成したモーションデータは「FBX」という形式で書き出せる。
FBXは3Dソフトの業界標準フォーマットなので、
Blender、
Unity、
Unreal Engine、
Mayaなど、
ほぼどこにでも持っていける。
ワンクリックで書き出しできる。

ステップ7: UnityやUnreal Engineで使う(やりたい人だけ)

ゲーム開発で使いたい場合は、
CyanPuppets用のプラグインがある。
対応バージョン: UE 5.0〜5.5、
Unity 2021.3〜2023.3。
Blenderプラグインも提供されている。

プラグインのインストール手順は公式のチュートリアルページにまとまっている。
「手順が英語でわからない」という場合は、
公式チュートリアルのURLをClaudeやChatGPTに渡して「この手順を日本語で教えて」と聞けばOK。

CyanPuppetsと他のAIモーキャプツールの違いは?

CyanPuppets以外にも、
Webカメラで使えるAIモーキャプツールはいくつかある。
主要なものを比較する。

比較項目CyanPuppetsWebcam Motion CaptureRokoko VisionPlask
料金無料版あり(商用は月$50)無料〜月199円無料プランあり無料プランあり
対応OSWindows専用Windows / Macブラウザ(OS不問)ブラウザ(OS不問)
GPU要件NVIDIA RTX 3060以上特になし不要不要
追跡ポイント208点以上非公開非公開非公開
指の追跡対応対応
リアルタイム対応(遅延0.1秒以下)対応動画アップロード型動画アップロード型
処理方式ローカルローカルクラウドクラウド
FBX出力対応対応対応対応

CyanPuppetsの強みは、
追跡ポイントの多さ(208点以上)、
指と顔の同時追跡、
リアルタイム対応の3つ。
一方、
Windows+NVIDIA GPU限定という制約が大きい。

MacユーザーならWebcam Motion CaptureかRokoko Visionが選択肢になる。
Rokoko VisionやPlaskはブラウザで動くのでGPUスペックを気にしなくていいが、
リアルタイム配信には向かない。

「VTuberのリアルタイム配信で全身+指+顔を同時に追跡したい」というニーズに応えられるのは、
この中ではCyanPuppetsだけ。
ただし、
ハードウェア要件が高いので、
まずは無料版で手持ちのPCで動くか確認するのが先。

CyanPuppetsのよくある疑問

Q. 無料版と有料版の一番大きな違いは?

A. 商用利用の可否。
無料版は個人の趣味利用のみ。
YouTubeやTikTokで収益化するなら月額$50のPersonalプランが必要。
あとは動画アップロードの長さ(無料90秒→$30で180秒)と、
デュアルカメラ対応(有料のみ)も違う。

Q. Macでは使えないの?

A. 使えない。
Windows専用で、
GPUもNVIDIA限定。
Macユーザーは、
代わりにWebcam Motion Capture(Mac対応)やRokoko Vision(ブラウザベース)、
Plask(ブラウザベース)を検討してほしい。

Q. どのくらいのスペックのPCが必要?

A. 最低ラインがRTX 3060+16GB RAM。
公式によるとこの構成で30FPSで動作する。
快適に使いたいならRTX 4080+32GB RAMが推奨。
ゲーミングPCを持ってる人なら、
だいたいクリアできるスペック。

Q. 全身を映すにはどのくらいの距離が必要?

A. Webカメラの視野角が90°の場合、
2〜3メートル離れれば全身が映る。
部屋が狭い場合は広角のWebカメラ(120°視野角等)を使うか、
上半身だけのキャプチャにする方法もある。

Q. データはクラウドに送られる?

A. 送られない。
すべてローカル(PC上)で処理される。
追加費用もなし、
動画アップロードの回数制限もなし。
プライバシーの心配がないのは大きい。

CyanPuppetsの注意点は?限界はどこ?

精度は平均3cm誤差。映画制作レベルには届かない(VTuber・SNS動画なら十分)
体が隠れる(遮蔽)とAI推測の精度が落ちる。デュアルカメラで改善可
Windows専用+NVIDIA GPU限定。Macは非対応
ストレージ100GB必要。日本語サポート窓口なし(WeChat or 英語メール)

正直に書く。

まず精度。
平均3cmの誤差は「プロの映画制作」には足りない。
ハリウッドの映画はスーツ型で1mm単位の精度を出しているので、
そこと比べるものじゃない。
VTuber配信、
インディーゲーム、
SNS動画なら問題ないけど、
精度が命の仕事には向かない。

次に遮蔽(しゃへい)の問題。
体の一部がカメラから見えなくなると(たとえば後ろを向いた時)、
AIが推測で補うけど、
精度は落ちる。
これはWebカメラ1台の宿命。
有料版のデュアルカメラなら改善されるが、
完全には解決しない。

それから、
このツールを開発しているのは広州(中国)の会社。
企業実績としてはBilibili、
テンセント、
清華大学など200社以上が導入していて、
実績はしっかりある。
ただし日本語のサポート窓口はなくて、
問い合わせはWeChatか英語メールになる。

あと地味だけど重要な点として、
ストレージを100GB使う。
パソコンの空き容量がギリギリの人は注意。

CyanPuppetsが広まると何が変わるのか?

BEFORE ― モーキャプ=高嶺の花
機材だけで100万円超え。映画スタジオや大手ゲーム会社だけの世界。個人クリエイターは手動アニメーションか高額モーキャプの二択。
AFTER ― 誰でもモーキャプ
Webカメラ1台+月7,500円。VTuber・インディーゲーム開発者・TikTokクリエイターが「私の動き」で3Dコンテンツを制作。導入企業200社超。

モーションキャプチャって、
ずっと「お金持ちの技術」だった。
映画スタジオ、
大手ゲーム会社、
研究機関。
個人クリエイターが手を出せる金額じゃなかった。

それがWebカメラ1台でできるようになると、
何が起きるか。
「動きをつける」作業が、
「文章を書く」くらいカジュアルになる。

今までは3Dキャラクターに動きをつけようとすると、
手作業で1フレームずつポーズを設定する「アニメーション」か、
高額なモーキャプか、
の二択だった。
前者は死ぬほど時間がかかるし、
後者は死ぬほどお金がかかる。

CyanPuppetsのようなツールが普及すると、
個人のVTuber、
インディーゲーム開発者、
TikTokクリエイターが「私の動き」で3Dコンテンツを作れるようになる。

実際、
CyanPuppetsの企業導入は200社を超えていて、
中国のゲーム・アニメ業界では定着し始めている。
日本ではまだ知名度が低いけど、
VTuber文化が世界一盛んな日本にこそ需要がある技術だと思う。

中国のインディーゲームスタジオでは、
CyanPuppetsを使ってモーキャプのコストを従来の10分の1以下に抑えた事例が報告されている。
100万円のスーツを買うか、
月7,500円のサブスクにするか。
同じ結果が出るなら、
個人クリエイターの答えは1つ。

CyanPuppetsまとめ

CyanPuppetsは、
Webカメラ1台で全身+顔+指のモーキャプができるAIツール。
無料版から始められて、
商用利用は月$50。

精度はプロの映画制作には届かないけど、
VTuber・ゲーム開発・動画制作なら実用的なレベル。
Windows+NVIDIA GPU限定という制約はあるが、
該当環境を持っているなら試す価値は大きい。

まずは無料版をダウンロードしてほしい。
カメラの前で手を振って、
3Dキャラが追従するか1回だけ試してみてほしい。
「え、
これスーツなしでできるの」って感覚、
体験するのが一番早い。

参考リンク

  • CyanPuppets公式サイト: https://www.cyanpuppets.com
  • CyanPuppets公式ショップ(無料版ダウンロード): https://cyanpuppets.myshopify.com/collections/all
  • CyanPuppets公式チュートリアル: https://cyanpuppets.myshopify.com/pages/tutorial
  • Steam: https://store.steampowered.com/app/2527380/Cyanpuppets/
  • 製品詳細(英語): https://cyanpuppets.com/product_EN.html

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-

← 戻る