CyanPuppetsは、
Webカメラ1台で全身・顔・指のモーションキャプチャができるAIツール。
スーツもセンサーも不要で、
無料版から始められる。
追跡ポイントは208点以上、
遅延は0.1秒以下。
この記事では、
料金・使い方・仕組みを他のAIモーキャプツールとの比較付きで解説する。
CyanPuppetsで何が変わる?従来のモーキャプとの違い
モーションキャプチャとは、
人間の動きをデータにして3Dキャラクターに反映させる技術。
映画やゲームでキャラクターがリアルに動いてるのは、
だいたいこれ。
従来のモーキャプは「スーツ型」が主流だった。
体中にセンサーをつけて、
専用のスタジオで撮影する。
値段は安くても30万円。
プロ向けだと数百万円。
個人クリエイターが手を出せる世界じゃなかった。
CyanPuppetsは、そこをAIで突破した。
| 比べるポイント | 従来のスーツ型モーキャプ(Xsens等) | CyanPuppets(AIカメラ型) |
|---|---|---|
| 必要な機材 | 専用スーツ+センサー+スタジオ | Webカメラ1台+PC |
| 初期費用 | 30万〜数百万円 | 無料版あり。有料は月$50(約7,500円) |
| セットアップ | スーツ着用+キャリブレーション(30分〜) | ソフト起動→カメラON(数分) |
| 追跡ポイント数 | 17〜23点(製品による) | 208点以上(体+手+顔の全関節) |
| 指の動き | 別売グローブが必要(追加10万円〜) | 標準で対応 |
| 顔の表情 | 別売ヘッドセットが必要 | 標準で対応 |
| 精度(腕の誤差) | 1cm以下 | 平均3cm以下(最小1cm〜最大5cm) |
| 遅延 | リアルタイム | 0.1秒以下 |
ポイントは「追跡ポイント208点以上」。
スーツ型は体にセンサーを貼るので、
物理的にセンサーの数に限界がある。
でもAIは映像から推測するので、
理論上いくらでも細かく追跡できる。
だからCyanPuppetsは顔の表情・手の指・体の関節を全部いっぺんにカバーできる。
精度だけ見ると、
スーツ型の「1cm以下」にはまだ負ける。
ただし、
VTuberやSNS向けの動画なら「平均3cm」の誤差で困ることはほぼない。
映画のフルCGシーンじゃなければ、
十分実用的なレベルだと思う。
CyanPuppetsはどういう仕組みで動いてるの?
2D→3D姿勢復元 + バイオメカニクス補正
「Webカメラだけでなんで3Dの動きがわかるの?」と思うかもしれない。
普通のカメラは2D(平面)しか撮れない。
でもCyanPuppetsのAIは、
2Dの映像から「この人の腕は今このくらいの角度で、
奥行きはこのくらい」と推測できる。
たとえるなら、
影絵を見て「元の形」を当てるようなもの。
人間でもある程度はできるが、
CyanPuppetsのAIモデルは9億パラメータ。
膨大な人体の動きデータを学習済み。
だから2Dの映像から3Dの姿勢を「復元」できる。
しかも体の構造を知っている。
関節の可動域、
骨の長さの比率。
だから物理的にありえないポーズにはならない。
これが「バイオメカニクスアルゴリズム」と呼ばれている部分。
簡単に言うと「人体の動きの法則を知ってるAI」。
他のAIモーキャプとの違いも書いておく。
たとえばGoogleのMediaPipe。
2Dのポイント検出まではやってくれる。
でも3Dへの変換や、
表情・指の同時追跡は別途組む必要がある。
CyanPuppetsは全部入り。
2D検出→3D変換→キャラへの適用。
1つのソフトで完結するのが大きな違い。
もう1つ面白いのが「AIオートリターゲット」。
通常、
モーキャプデータを別のキャラクターに使い回すには「ボーン(骨格)のマッピング」という地味で面倒な作業が必要。
キャラクターごとに骨の名前も数も違うので、
「この骨はあの骨に対応してる」と1本ずつ指定する。
CyanPuppetsはこれをAIが自動でやってくれる。
MetaHuman、
VRM、
MMD、
Mixamo……メジャーな骨格システムならワンクリックで対応。
この「面倒な調整をAIがやる」という設計思想が、
CyanPuppetsの核心だと思う。
CyanPuppetsが使える場面は?
VTuberの全身モーションを低コストで実現する
VTuberで「顔だけ」のトラッキングならFaceRigなどで安くできる。
でも全身を動かそうとすると、
突然ハードルが跳ね上がる。
CyanPuppetsなら無料版でも全身+顔+指が同時に動くので、
「上半身バストアップ配信」から「全身ダンス配信」に進化できる。
0.1秒以下の遅延なので、
リアルタイム配信でも使えるレベル。
ゲーム開発のプロトタイプを実際の動きで作る
インディーゲームを作ってて「キャラの動きをつけたいけど、
モーキャプは高すぎる」って人、
多いと思う。
CyanPuppetsはUnityとUnreal Engineに対応してるので、
撮影した動きをそのままゲームキャラに適用できる。
FBX形式で書き出せるから、
Blenderなど他の3Dソフトにも持っていける。
プロの映画制作レベルの精度は出ないけど、
プロトタイプやインディーゲームなら十分。
動画の3Dキャラクターに既存の動画から動きを移植する
リアルタイムじゃなくて、
動画ファイルからもモーキャプできる。
たとえばダンス動画をアップロードして、
その動きを3Dキャラクターに移す。
無料版だと90秒まで、
$30の買い切り版で180秒まで対応している。
TikTokやYouTubeで「キャラクターが踊ってる動画」を作りたい人にはぴったり。
SNSコンテンツに3Dキャラを登場させる
たとえばAIツールの紹介動画。
テキストと画面録画だけだと、
どうしても単調になる。
そこに3Dキャラクターが解説してくれたら、
一気に目を引くコンテンツになる。
TikTokのスライド動画や解説系YouTubeで、
キャラクターが身振り手振りで説明してるコンテンツ、
最近よく見る。
CyanPuppetsで録った動きを3Dキャラに移植すれば、
同様のコンテンツを作れる。
AI動画生成ツールで作った映像にモーキャプしたキャラを重ねる、
という組み合わせも実用的だと思う。
CyanPuppetsの料金は?必要なものは?
料金から。明確にプランが分かれている。
| プラン | 料金 | できること |
|---|---|---|
| 無料版 | 0円 | シングルカメラ、動画90秒まで、体+顔+指、FBX出力。商用利用は不可 |
| 動画アップロード拡張 | $30(約4,500円)買い切り | 動画180秒まで。商用不可 |
| Personal(月額) | $50/月(約7,500円) | デュアルカメラ対応、精度20%向上、商用OK |
| Personal(年額) | $599/年(約90,000円) | 2Kカメラ対応、精度30%向上、商用OK |
| Enterprise | $1,361/年(約200,000円) | 4Kカメラ+産業用カメラ付属、精度40%向上、LAN複数人対応 |
無料版で「試してみる」→気に入ったら月額$50に上げる、という流れが現実的。
次に必要なもの。
パソコン(Windows):
| 項目 | 最低スペック | 推奨スペック |
|---|---|---|
| OS | Windows 10 64bit | Windows 10/11 64bit |
| CPU | Intel/AMD 4コア 2.5GHz | 同等以上 |
| RAM | 16GB | 32GB |
| GPU | NVIDIA RTX 3060(8GB) | NVIDIA RTX 4080 |
| ストレージ | 100GB空き | 200GB空き |
Webカメラ: 1080p・90°視野角のもの。数千円のもので大丈夫。
対応言語: 英語・中国語・日本語。日本語に対応しているのは嬉しいポイント。
ただし注意点が2つ。
Macには対応していない。
Windows専用。
あとGPUがNVIDIA限定なので、
AMDのグラフィックボードでは動かない。
CyanPuppetsの使い方は?ステップバイステップ
無料版で始める手順を書く。
ステップ1: ソフトをダウンロードする
CyanPuppetsの公式ショップ(cyanpuppets.myshopify.com)にアクセス。
「Free Version」を選んでダウンロード。
Discordコミュニティからも取得できる。
Steamにも登録されているが、
Coming Soonの状態。
ステップ2: インストールする
ダウンロードしたファイルを実行。
インストール先はデフォルトのままでOK。
100GBの空き容量が必要なので、
Cドライブがいっぱいの人は別ドライブを指定すること。
もしインストール中に英語のエラーが出たら、
そのエラー文をそのままChatGPTやClaudeに貼り付けて「これどういう意味?」と聞くのが最速。
ステップ3: Webカメラを接続して起動する
ソフトを起動すると、
カメラの映像が表示される。
カメラの前に立つと、
AIが自動で体のポイントを検出し始める。
キャリブレーション(調整)の手順は不要。
立つだけでいい。
従来のスーツ型だとキャリブレーションに30分かかることもあるので、
ここは大きな差。
ステップ4: キャラクターを選ぶ
ソフト内にプリセットのキャラクターがある。
手持ちのキャラクターを使いたい場合は、
VRM形式やFBX形式で読み込める。
骨格の対応づけはAIが自動でやってくれるので、
手動で1本ずつ設定する必要はない。
ステップ5: リアルタイムキャプチャする or 動画をアップロードする
2つのモードがある。
リアルタイムモード: カメラの前で動くと、
キャラクターがリアルタイムで追従。
配信やプレビューに使える。
動画アップロードモード: 既存の動画ファイル(MP4/MOV/AVI等)をアップして、
モーションデータに変換。
無料版は90秒まで。
ステップ6: FBXで書き出す
完成したモーションデータは「FBX」という形式で書き出せる。
FBXは3Dソフトの業界標準フォーマットなので、
Blender、
Unity、
Unreal Engine、
Mayaなど、
ほぼどこにでも持っていける。
ワンクリックで書き出しできる。
ステップ7: UnityやUnreal Engineで使う(やりたい人だけ)
ゲーム開発で使いたい場合は、
CyanPuppets用のプラグインがある。
対応バージョン: UE 5.0〜5.5、
Unity 2021.3〜2023.3。
Blenderプラグインも提供されている。
プラグインのインストール手順は公式のチュートリアルページにまとまっている。
「手順が英語でわからない」という場合は、
公式チュートリアルのURLをClaudeやChatGPTに渡して「この手順を日本語で教えて」と聞けばOK。
CyanPuppetsと他のAIモーキャプツールの違いは?
CyanPuppets以外にも、
Webカメラで使えるAIモーキャプツールはいくつかある。
主要なものを比較する。
| 比較項目 | CyanPuppets | Webcam Motion Capture | Rokoko Vision | Plask |
|---|---|---|---|---|
| 料金 | 無料版あり(商用は月$50) | 無料〜月199円 | 無料プランあり | 無料プランあり |
| 対応OS | Windows専用 | Windows / Mac | ブラウザ(OS不問) | ブラウザ(OS不問) |
| GPU要件 | NVIDIA RTX 3060以上 | 特になし | 不要 | 不要 |
| 追跡ポイント | 208点以上 | 非公開 | 非公開 | 非公開 |
| 指の追跡 | 対応 | 対応 | ー | ー |
| リアルタイム | 対応(遅延0.1秒以下) | 対応 | 動画アップロード型 | 動画アップロード型 |
| 処理方式 | ローカル | ローカル | クラウド | クラウド |
| FBX出力 | 対応 | 対応 | 対応 | 対応 |
CyanPuppetsの強みは、
追跡ポイントの多さ(208点以上)、
指と顔の同時追跡、
リアルタイム対応の3つ。
一方、
Windows+NVIDIA GPU限定という制約が大きい。
MacユーザーならWebcam Motion CaptureかRokoko Visionが選択肢になる。
Rokoko VisionやPlaskはブラウザで動くのでGPUスペックを気にしなくていいが、
リアルタイム配信には向かない。
「VTuberのリアルタイム配信で全身+指+顔を同時に追跡したい」というニーズに応えられるのは、
この中ではCyanPuppetsだけ。
ただし、
ハードウェア要件が高いので、
まずは無料版で手持ちのPCで動くか確認するのが先。
CyanPuppetsのよくある疑問
Q. 無料版と有料版の一番大きな違いは?
A. 商用利用の可否。
無料版は個人の趣味利用のみ。
YouTubeやTikTokで収益化するなら月額$50のPersonalプランが必要。
あとは動画アップロードの長さ(無料90秒→$30で180秒)と、
デュアルカメラ対応(有料のみ)も違う。
Q. Macでは使えないの?
A. 使えない。
Windows専用で、
GPUもNVIDIA限定。
Macユーザーは、
代わりにWebcam Motion Capture(Mac対応)やRokoko Vision(ブラウザベース)、
Plask(ブラウザベース)を検討してほしい。
Q. どのくらいのスペックのPCが必要?
A. 最低ラインがRTX 3060+16GB RAM。
公式によるとこの構成で30FPSで動作する。
快適に使いたいならRTX 4080+32GB RAMが推奨。
ゲーミングPCを持ってる人なら、
だいたいクリアできるスペック。
Q. 全身を映すにはどのくらいの距離が必要?
A. Webカメラの視野角が90°の場合、
2〜3メートル離れれば全身が映る。
部屋が狭い場合は広角のWebカメラ(120°視野角等)を使うか、
上半身だけのキャプチャにする方法もある。
Q. データはクラウドに送られる?
A. 送られない。
すべてローカル(PC上)で処理される。
追加費用もなし、
動画アップロードの回数制限もなし。
プライバシーの心配がないのは大きい。
CyanPuppetsの注意点は?限界はどこ?
正直に書く。
まず精度。
平均3cmの誤差は「プロの映画制作」には足りない。
ハリウッドの映画はスーツ型で1mm単位の精度を出しているので、
そこと比べるものじゃない。
VTuber配信、
インディーゲーム、
SNS動画なら問題ないけど、
精度が命の仕事には向かない。
次に遮蔽(しゃへい)の問題。
体の一部がカメラから見えなくなると(たとえば後ろを向いた時)、
AIが推測で補うけど、
精度は落ちる。
これはWebカメラ1台の宿命。
有料版のデュアルカメラなら改善されるが、
完全には解決しない。
それから、
このツールを開発しているのは広州(中国)の会社。
企業実績としてはBilibili、
テンセント、
清華大学など200社以上が導入していて、
実績はしっかりある。
ただし日本語のサポート窓口はなくて、
問い合わせはWeChatか英語メールになる。
あと地味だけど重要な点として、
ストレージを100GB使う。
パソコンの空き容量がギリギリの人は注意。
CyanPuppetsが広まると何が変わるのか?
モーションキャプチャって、
ずっと「お金持ちの技術」だった。
映画スタジオ、
大手ゲーム会社、
研究機関。
個人クリエイターが手を出せる金額じゃなかった。
それがWebカメラ1台でできるようになると、
何が起きるか。
「動きをつける」作業が、
「文章を書く」くらいカジュアルになる。
今までは3Dキャラクターに動きをつけようとすると、
手作業で1フレームずつポーズを設定する「アニメーション」か、
高額なモーキャプか、
の二択だった。
前者は死ぬほど時間がかかるし、
後者は死ぬほどお金がかかる。
CyanPuppetsのようなツールが普及すると、
個人のVTuber、
インディーゲーム開発者、
TikTokクリエイターが「私の動き」で3Dコンテンツを作れるようになる。
実際、
CyanPuppetsの企業導入は200社を超えていて、
中国のゲーム・アニメ業界では定着し始めている。
日本ではまだ知名度が低いけど、
VTuber文化が世界一盛んな日本にこそ需要がある技術だと思う。
中国のインディーゲームスタジオでは、
CyanPuppetsを使ってモーキャプのコストを従来の10分の1以下に抑えた事例が報告されている。
100万円のスーツを買うか、
月7,500円のサブスクにするか。
同じ結果が出るなら、
個人クリエイターの答えは1つ。
CyanPuppetsまとめ
CyanPuppetsは、
Webカメラ1台で全身+顔+指のモーキャプができるAIツール。
無料版から始められて、
商用利用は月$50。
精度はプロの映画制作には届かないけど、
VTuber・ゲーム開発・動画制作なら実用的なレベル。
Windows+NVIDIA GPU限定という制約はあるが、
該当環境を持っているなら試す価値は大きい。
まずは無料版をダウンロードしてほしい。
カメラの前で手を振って、
3Dキャラが追従するか1回だけ試してみてほしい。
「え、
これスーツなしでできるの」って感覚、
体験するのが一番早い。
参考リンク
- CyanPuppets公式サイト: https://www.cyanpuppets.com
- CyanPuppets公式ショップ(無料版ダウンロード): https://cyanpuppets.myshopify.com/collections/all
- CyanPuppets公式チュートリアル: https://cyanpuppets.myshopify.com/pages/tutorial
- Steam: https://store.steampowered.com/app/2527380/Cyanpuppets/
- 製品詳細(英語): https://cyanpuppets.com/product_EN.html
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。