AI活用全般

Higgsfield MCPって何?|Claudeから30以上のAI動画・画像モデルを1接続で使える新機能を実用シーン別に整理

動画と画像を作るたびに、
KlingとVeoとSeedanceとSora 2のサイトを行き来する手間が、
Claude1つに集約された。

Higgsfield MCPは2026年4月28日リリース。
Claudeに「この商品で9:16の12秒UGC動画を作って」と頼むと、
裏でSeedance 2.0が動いて納品される設計。

APIキーは1本も要らない。
既存のHiggsfieldクレジットがそのまま消費される2階建て課金で、
Claude側はPro以上が必要になる。

この記事はClaude Code/Claude Desktopのコネクタ機能を触ったことがあって、
画像/動画生成を業務に組み込みたい個人〜小規模チーム運用者
向け(Klingやらの動画AIを単発で触ったことがあれば読めます)。

私はこのMCPを、
月20ドルのClaude Pro契約者が動画AIに月15〜39ドル足すだけで「Sora 2もVeo 3.1もKling 3.0も会話で叩ける環境」が組める、
コスパ最強の入口だと判断している。

Higgsfield MCPって何のこと?

Higgsfield MCPは、
画像と動画を生成する30+のAIモデルを、
Claudeなどのエージェントから1本のURLで呼べるようにしたサービス。

2026年4月28日にリリース。
提供形態はホスト型のMCPサーバーで、
URLはhttps://mcp.higgsfield.ai/mcp1つだけ。

公式ページにはこう書いてある。

End-to-end content creation inside any AI agent — Cinematic images and videos right from your conversations.

(出典: https://higgsfield.ai/mcp

「会話の中で映画品質の画像と動画を作り切る」という設計思想。

従来は、
Klingで動画作って、
別サイトでNano Banana Proの画像を作って、
さらに別サイトでSora 2を試して、
と画面遷移とログインを繰り返していた。

これが1接続にまとまったのが今回の本質。私が一番興味を持ったのもここ。

なぜ今これを取り上げるのか?

3つの理由がある。

1つ目。
リリースが2026年4月28日で、
日本語ブログでこのMCP機能を扱った記事がまだ存在しない段階だから。
早めに整理しておく価値がある。

2つ目。
Anthropicが同じ4月28日に、
Adobe・Blender・Autodesk・Ableton・Splice・Affinity・SketchUp・Resolume Arena・Resolume Wireの9本のクリエイティブ系コネクタをまとめて発表した(出典: Anthropic公式ニュース)。
クリエイティブ系MCPが一気に普及した日に、
Higgsfieldは独自路線で別動線でMCPサーバーを公開している。

3つ目。
ペインの強さ。
30個のサイトを行き来してた人にとって、
1接続で済むという話は、
それだけで触る理由になる。

私は、
ここがクリエイティブ職が日常的に使う最初のMCPになると判断している。
9本の純正コネクタはAdobe/Blender等のデスクトップアプリ操作が主軸で、
生成AIの呼び出し動線は手薄。
Higgsfieldはその空席を独自ルートで埋めにきた構図。

Higgsfield MCPで実際にできることは?

用途別に整理するとこうなる。

業務シーン呼ばれる主なモデル典型出力
EC商品動画の量産Seedance 2.09:16・最大15秒・音声同期つき開封動画
SNSキャラ統一投稿Soul ID + Nano Banana Pro同一キャラの7シチュエーション画像
広告ビジュアル生成Marketing Studio + Veo 3.1商品URL→4Kシネマ広告
モデル比較自動化Kling 3.0 / Veo 3.1 / Sora 2同プロンプトの3モデル並列出力
商品ラベル・パッケージNano Banana Pro / GPT Image 24K・テキスト完全レンダリング
過去アセットの再利用generation history ツールClaudeから過去生成物を検索・再呼び出し

公式ページには、
Higgsfield MCPに含まれるツール群がこう列挙されている: generation / history / marketing-studio / character-training。
Claudeから「list your tools」と聞けば、
これらが返ってくる構成(出典: https://higgsfield.ai/mcp)。

注目したいのが、
生成履歴がClaude側から検索できる点。
「先週作ったあの赤いリンゴの画像、
もう1パターン違う角度で作って」が会話で通る。

接続できる30+モデルにはどんなものがある?

動画17+、
画像16+、
合計30+モデル。
全部紹介すると焦点が散るので、
業務でよく使われる主要モデルだけ抜粋する。

動画モデル(主要8本)

モデル公式キャッチ得意分野
Kling 3.0The new standard in photorealism with advanced motion complexity映画品質の実写動画
Kling 2.6The proven engine for fast, stable, and consistent character animationsキャラ動画・安定生成
Kling o1Next-gen reasoning model for complex, multi-layered scene composition複数要素の同時制御
Seedance 2.0The first native audio-video model: synced lip-sync, SFX, and music in one passUGC広告・SNSリール・ドラマ
Veo 3.1Crystal clear 4K generation with native cinematic visual flows4Kシネマ品質
Sora 2Deep world simulation with accurate physics and object permanence物理演算・リアル世界シミュ
Wan 2.7The perfect balance of generation speed and visual richness速度と品質のバランス型
Minimax Hailuo(公式説明未確認)実写系動画

(出典: https://higgsfield.ai/ai-video

画像モデル(主要9本)

モデル解像度得意分野
Nano Banana Pro最大4K(4096×4096)テキスト完全レンダリング・パッケージ・商業ビジュアル
GPT Image 24Kテキスト処理・商用ビジュアル
Flux / Flux 2最大4K写実〜アート系汎用
Seedream 5.0 Lite最大4Kスタジオ品質ビジュアル
Soul / Soul 2.0最大4Kキャラ統一・編集品質キャンペーン
Reve最大4K汎用
Kling o1(画像版)最大4K汎用
Wan 2.2(画像版)最大4K汎用
Flux Kontext未確認汎用

(出典: https://higgsfield.ai/ai-image

全画像モデルが1:1 / 9:16 / 16:9 / 3:4 / 4:3に対応していて、
HEX/RGBコード入力でブランドカラーも維持できる仕様。

業務目線で詰めると、
画像はNano Banana Pro / Soul 2.0、
動画はSeedance 2.0 / Kling 3.0 / Veo 3.1の5本を押さえれば9割回ると私は判断している。
残り25本は専門領域の予備札。

料金とクレジットの仕組みは?

2階建て課金になっている。
Claude側の料金とHiggsfield側のクレジットが両方必要。

これを最初に押さえておかないと「APIキー不要=無料」と誤解する。
実態は「APIキー管理は要らないけど、
Higgsfieldのクレジットは消費する」設計。

Higgsfield個人プラン(年払い時の月額)

プラン月額クレジット/月目安換算
Free$0少量(公式pricingで要確認)動作確認用
Starter$15200クレジットNano Banana Pro画像約100枚 / Kling 3.0動画約33本
Plus$391,000クレジット並列生成6動画・8画像まで
Ultra$993,000〜9,000クレジット365日無制限モデル1本選択可(Nano Banana 2 / Wan 2.6 / Seedance 1.5 Pro / Kling 2.6から1択)

料金は2026年に複数回改訂されている。
最新は公式pricingページで確認すること。

公式ページの記述はこう。

Each generation costs credits based on the model and resolution. Your existing Higgsfield plan credits work seamlessly through any connected agent.(出典: https://higgsfield.ai/mcp

「モデルと解像度によってクレジットが変動」「既存プランのクレジットがそのまま使える」と明示されている。

Claude側の必要プラン

Connectors機能はClaude Pro以上が必要。Free不可。

仮にClaude Pro $20/月+Higgsfield Starter $15/月で組むと、
月35ドル≒5,500円スタート。
動画33本/月、
画像100枚/月の枠が手に入る。

EC事業者で週次で動画を量産するならPlus $39/月、
365日重い動画モデルを叩き続ける受託クリエイティブはUltra $99/月、
というのが目安。

Claude Desktopにどう追加する?

ここが本記事のメインボリューム。
Higgsfieldアカウントを作ったあとの追加手順を、
Claude Desktop側のUIで6ステップに分解する。

公式手順はAnthropicのサポートページに書かれている(出典: Claude公式サポート)。
これに沿って整理する。

STEP1〜6: カスタムコネクタ追加

  1. Claude.aiにログインして、左下のプロフィールアイコンから「Customize」を開く。サイドバーの「Connectors」を選ぶ
  2. 右上の「+」ボタンをクリック → メニューから「Add custom connector」を選択
  3. 名前欄に「Higgsfield」と入力(識別用、好きな名前でOK)
  4. URL欄に https://mcp.higgsfield.ai/mcp を貼り付け
  5. 「Add」をクリック。OAuth Client ID / SecretはHiggsfield側で不要のためAdvanced settingsはスキップでよい
  6. Higgsfieldアカウントでサインインして認可を許可。チャット画面に戻り、左下「+」→「Connectors」トグルをオンにすれば会話で使える

ここで引っかかりやすいポイント。
Claude Free プランではConnectorsそのものが出てこない。
Pro以上に切り替えてから手順1に戻る必要がある。

Team・Enterpriseプランの場合は、
オーナーが先に「Organization settings > Connectors > Add > Custom > Web」で組織全体に追加し、
各メンバーが「Customize > Connectors」からConnectボタンで個別認証する流れ。

動作確認の最小プロンプト

追加できたら、Claudeのチャットでこう聞く。

list your tools

generation / history / marketing-studio / character-training の4つが返ってくれば接続成功。

次に画像の最小テスト。

Higgsfieldで白い背景に赤いリンゴの商品画像を1:1で生成して

これでNano Banana Proあたりが裏で呼ばれて画像URLが返ってくる。
動画なら以下。

Seedance 2.0でスマホを机に置く12秒の9:16動画を生成して

動画は非同期ジョブとしてキュー投入される設計。
エージェントが完了をポーリングして、
URLが揃った時点でClaude側に返す挙動。
公式は「while you sleep」と表現している。

Claude Codeにどう追加する?

CLI派ならコマンド1行で済む。

公式ドキュメント(code.claude.com/docs/en/mcp)に書かれた構文で、
HTTP transportを推奨している。

STEP1〜3: コマンドライン追加

  1. ターミナルで以下を実行:
    claude mcp add --transport http higgsfield https://mcp.higgsfield.ai/mcp
  2. 登録確認:
    claude mcp list
    higgsfieldがリストに現れればOK
  3. セッション内で接続状態を確認: Claude Codeのチャット内で/mcpと打つ。
    Higgsfieldがconnectedになっていれば完了

削除や詳細確認のコマンドも一応並べておく。

claude mcp get higgsfield      # 詳細確認
claude mcp remove higgsfield   # 削除

ここで引っかかりやすいポイント。
--scopeの追加スイッチをつけずに実行するとデフォルトでlocal(現在のプロジェクトのみ)になる。
.mcp.jsonでチームに共有したいなら--scope projectを追加する。

HTTPサーバーが途切れた場合、
Claude Code側がexponential backoff(1秒→2秒→4秒→8秒→16秒、
最大5回)で自動再接続するので、
一時的な切断は気にしなくていい設計。

EC動画量産はどうやって組む?

シーン1。商品ページ100件分のSNS縦型動画を週次で量産する想定。

従来はKlingのサイトで1本ずつ作る作業を繰り返していた。
MCP経由なら、
夜のうちに100本キューに投げて朝チェックするフローが組める。

STEP1〜4: 商品動画パイプライン

  1. 商品リストを準備: 商品名・キーカラー・サイズなどの列を持つCSVを用意(例: 商品名「オーガニックシャンプー300ml」、背景「ホワイト」、シーン「開封」)
  2. Claudeにプロンプトを渡す:
    添付CSVの各行について、
    Higgsfieldで以下の動画を生成して。 - モデル: Seedance 2.0 - アスペクト比: 9:16 - 長さ: 12秒 - スタイル: UGC風開封シーン 生成完了したら商品名と動画URLを表で返して。
  3. Claudeが裏でMCP経由で順次キュー投入: 非同期ジョブで処理されるため、
    ターミナルやチャットを閉じても進む
  4. 翌朝、
    生成履歴をClaudeから検索
    :
    昨夜生成した100本の動画を、
    商品名昇順で表にまとめて
    generation historyツールが過去アセットを引いてくれる

Seedance 2.0は公式に「high-impact video ads」「dynamic demos, multiple ad variations」のユースケースとして紹介されている(出典: https://higgsfield.ai/seedance/2.0)。
EC広告は本流の用途。

クレジット消費の目安。
Starter $15/月の200クレジットだと、
Kling 3.0換算で33本相当。
100本回すならPlus $39/月以上のプラン推奨。

SNSキャラ統一投稿はどうやって組む?

シーン2。
自社ブランドアバターで毎日違うシチュエーションの画像を週7枚出したい想定。

従来はキャラの顔がブレてブランドが崩れる問題があった。
Soul IDで顔を固定すれば1人のモデルが7日分働いてくれる構造になる。

STEP1〜5: キャラ統一パイプライン

  1. Soul IDで学習: HiggsfieldのUIで「ブランドAアバター」のような名前で20枚以上の写真をアップロード。学習時間は約5分
  2. 学習完了後、Claudeに依頼:
    HiggsfieldのSoul ID『ブランドAアバター』を使って、
    月曜〜日曜の7シチュエーション (カフェ・公園・オフィス・海・山・雨・夜景)で 1:1の画像をそれぞれ1枚ずつ生成して
  3. Claudeがcharacter-trainingツールを呼び出して同一顔で7枚生成: スタイルプリセット20種以上から選択可(エディトリアル / ハイファッション / ニッチ等)
  4. 1枚ごとに微調整: 「カフェのやつだけもっと自然光で」と追加プロンプト
  5. 翌週分の予約: 「来週分の7枚も同じキャラで作って、
    テーマは旅行先」と継続指示

Soul IDの公式仕様は、
写真20枚以上・約5分学習・スタイルプリセット20種以上対応で、
写真と動画の両方に同じキャラを適用できる(出典: Higgsfield公式ブログ)。

Soul ID 1キャラの学習5分の投資で、
月20〜50万円相当のモデル雇用を月$99以下のUltraプランで代替できる構造。
私はここがHiggsfieldのSNS運用クリエイター向け本命機能だと判断している。

モデル比較自動化はどうやって組む?

シーン3。
動画クリエイターが「同じシーンをKling 3.0とVeo 3.1とSora 2で並べてベストを選びたい」想定。

従来はそれぞれのサイトにログインして3回プロンプトを書いて3回ダウンロードして、
という作業が30分単位で消えていた。
MCP経由なら1命令で済む。

STEP1〜3: 並列モデル比較

  1. Claudeに同時生成を依頼:
    『夕暮れの渋谷交差点を歩く女性の後ろ姿、
    16:9、
    10秒』というプロンプトを、
    Kling 3.0 / Veo 3.1 / Sora 2 の3モデルで同時に生成して。 完了後に動画URLを並べて返して。
  2. Claudeが3ジョブを並列キュー投入: 各モデルが非同期で動く。
    完了タイミングはモデルによって違う
  3. 3本のURLが揃ったら表でレポート:
    3本の動画を、
    被写体の動きの自然さ・光の表現・カメラの動きで採点してくれる?
    Claudeに比較評価まで頼める

30分溶けてた3画面遷移作業が、
1命令3分に縮む構造。
所要時間が10分の1になる。

クレジット消費は3倍速で進むため、
比較を頻繁にやるならPlus以上のプランが現実的。

Higgsfield Marketing Studioとの違いは?

同じ会社の別機能で、混同しやすい。整理する。

比較軸Marketing Studio(4/14前後)MCP(4/28)
主な操作者人間(マーケター・EC運用者)AIエージェント(Claude等)
使い方商品URL貼付→広告動画を自社UIで生成会話で指示→裏でHiggsfield呼び出し
使用モデルSeedance 2.0等の動画特化30+(画像・動画・キャラ・広告)全部
接続先HiggsfieldブラウザUIで完結Claude/OpenClaw/Hermes/NemoClaw等の外部
主目的広告動画の即席生成素材生成を会話・自動化に組み込む
関係性独立機能MCP内にmarketing-studioツールとして内包

(出典: https://higgsfield.ai/marketing-studio-intro / https://higgsfield.ai/mcp

Marketing Studioは「人がHiggsfieldを直接触る」、
MCPは「エージェントがHiggsfieldを呼ぶ」。
階層が違う。

そしてMCPはMarketing Studioの機能を内包しているため、
Claude側からmarketing-studioツールを呼べばURL投入広告生成も会話でできる。
私はMCP契約者がMarketing Studio単独契約を別建てする必要はないと判断している。
1契約で両方使える設計。

ComfyUI / Krea / Replicateとの立ち位置の違いは?

近接ツールとの差分を、運用視点で並べる。

比較軸Higgsfield MCPComfyUIKreaReplicate / Fal
接続方式ホストMCPサーバー(URLのみ)ローカルインストールブラウザUIAPI(モデル別キー)
モデル数30+(1URL)多数(個別導入)独自数本多数(個別キー管理)
認証Higgsfieldアカウント1つ不要(ローカル)Kreaアカウントモデル別APIキー
エージェント連携MCP標準(中心設計)別途構築非対応非標準
運用難易度低(URL貼るだけ)高(ノードベース構築)低(UI操作)中(APIキー管理)

結論。
Higgsfield MCPが会話統合本流、
ComfyUIがローカル本流、
Kreaがブラウザ本流、
Replicate/Falがコード統合本流。
この4極構造で住み分けが完成している。

私は、
コーディングできる人でもMCP経由のラインで使う。
APIキー10本以上を管理して各社の請求月次対応する手間と、
Higgsfieldアカウント1本で済む手間を天秤にかけたら、
後者を選ぶ。

つまずきやすい注意点は?

4つある。

1つ目。
クレジット消費の早さ。
Free枠は数本で消費しきる可能性が高い。
本格運用ならStarter $15以上を最初から選ぶのが現実的。

2つ目。
モデル選定の不透明さ。
エージェントがどのモデルを呼ぶかのロジックは非公開。
「Seedance 2.0で」「Kling 3.0で」のようにモデル名を明示してClaudeに頼むほうが結果がブレない。

3つ目。
リリース直後の安定性。
2026-04-28リリースで実績が少ない段階。
エンタープライズ用途で本番運用を組むなら、
まずは個人プランで2〜3週間試したほうが安全。

4つ目。
各モデルのライセンス。
Veo(Google)・Kling(Kuaishou)・Sora(OpenAI)それぞれの元ライセンスが適用される設計のため、
商用利用ガイドラインは元モデル側のドキュメントも確認する必要がある。

私は、
4つ目のライセンス継承が一番見落とされやすい落とし穴だと判断している。
Higgsfield側だけ確認して安心せず、
Veo/Kling/Sora 2の各社利用規約まで遡るのが正解。

FAQ

Higgsfield MCPはClaude Free でも使える?

使えない。
Claude Connectors機能はPro以上が必要。
Higgsfield側のFreeアカウントは作れるが、
Claude側がPro以上でないとそもそも接続できない。

APIキーは要らない?

不要。
Higgsfieldアカウントでログイン認可するだけで済む。
ただし「APIキー不要=無料」ではない。
Higgsfield側のクレジットは消費される。

動画生成にどれくらい時間がかかる?

非同期ジョブとしてキュー投入される。
モデルと混雑状況で変動するため公式に明確な数字はない。
Claudeがエージェントとして完了をポーリングする設計のため、
生成中も他の作業を続けられる。

商用利用は問題ない?

各モデルの元ライセンスを継承する設計。
Veo・Kling・Sora 2は各社ライセンスを確認する必要がある。
Higgsfield独自のSoulは公式商用ガイドあり(公式pricingページから辿れる)。

Anthropicの4/28発表のクリエイティブコネクタ9本に含まれる?

含まれない。
Higgsfield MCPは独立してMCPサーバーを公開している方式。
Anthropic公式コネクタディレクトリには未掲載で、
ユーザーがカスタムコネクタとして追加する形式。

まとめ

Higgsfield MCPは「30+のAIモデルを1接続でClaudeから呼べる」設計。
EC動画量産・SNSキャラ統一・モデル比較自動化のどの業務でも、
画面遷移とログインの繰り返しを消せる。

料金はClaude Pro $20/月+Higgsfield Starter $15/月の月35ドル≒5,500円スタートが現実ライン。
動画33本/月、
画像100枚/月の枠が手に入る。

2026年4月28日リリースで日本語競合がほぼいない段階。
私が一番注目しているのは、
生成履歴をClaudeから検索できる点。
「先週作ったあれをもう1パターン」が会話で通る世界線は、
業務クリエイターの時間構造を変える。

参考リンク

このページに出てきた言葉

MCP(Model Context Protocol)
ClaudeなどのAIエージェントが外部サービスと会話する共通の窓口。USBの差し込み口的に「同じ規格で繋げば動く」設計
エージェント
人の指示を受けて、複数のツールを自前で呼び出して仕事を完結させるAI
ホスト型MCPサーバー
提供側がサーバーを運用していて、ユーザーはURLを登録するだけで使える形式
カスタムコネクタ
Claude側に「手動でURLを指定して追加するコネクタ」のこと
Higgsfield
米国拠点のAI動画/画像生成プラットフォーム。Soul・Marketing Studioなど独自機能あり
Seedance 2.0
ByteDance製の動画生成モデル。最大15秒・1080p・音声リップシンク同期
Soul ID / Soul 2.0
Higgsfield独自のキャラクター学習機能。写真20枚以上を約5分で学習
Nano Banana Pro
Google製の画像生成モデル。最大4Kでテキスト完全レンダリングが強み
Kling
Kuaishou(中国)製の動画生成モデル。実写品質が評価軸
Veo
Google製の動画生成モデル。4Kシネマ品質が強み
Sora 2
OpenAI製の動画生成モデル。物理シミュレーションが特徴
Flux
Black Forest Labs製の画像生成モデル。汎用性が高い
UGC(User Generated Content)
ユーザーが個人撮影風の風合いのコンテンツ
クレジット
生成1回ごとに消費される内部通貨。モデルと解像度で消費量が変動
Marketing Studio
Higgsfieldが2026年4月14日前後にリリースした広告自動化機能
非同期ジョブ
「リクエスト→裏で処理→完了通知」の流れ。動画生成はこの方式
HTTP transport
MCPサーバーへの通信方式の1つ。Claude Codeでは現状これが推奨
追加スイッチ(フラグ)
コマンドにつけるオン・オフ指定。--scope projectのように頭にハイフン2つで書く
OAuth
パスワードを直接渡さず、認可サーバー経由でアクセス権を渡す認証方式
exponential backoff
再接続の間隔を倍々で広げる方式。サーバー負荷をかけずに復旧を待つ
キャラ統一
複数の画像/動画にわたって、同じ顔・スタイル・体型を維持すること
スタイルプリセット
ライティングや構図のテンプレートをまとめたもの
2階建て課金
Claude料金とHiggsfield料金の両方を払う構造(本記事用語)

※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。

-AI活用全般
-, , , , , , , , ,

← 戻る