履歴書の顔写真、応募作品の挿絵、取材で送られた写真、SNS拡散中の炎上画像。
AI生成かどうかを判定する公式手段は2026年5月時点で2つあり、SynthID(Geminiアプリ)とContent Credentials Verifyが主軸です。
ただしこの2つは仕組みも対応AIもズレていて、片方ヒットしないと「白判定」にはならない。
MidjourneyやStable Diffusionで作られた画像は、両方とも何も返さない。
この記事は2技術を業務シーン4種別と判定マトリクス2×2で並べて、「明日この画像を判定する」ところまで持ち込む構成にします。
この記事はSNS運用担当・記者編集者・採用担当・コンテスト主催者・教育関係者向け(AIや画像処理の専門知識なしで読めます)。
SynthIDとContent Credentialsは何が違うのか
2つは「AI画像であることを示す印」を画像につけて、後から判定する仕組みという点では同じです。
ただ、印のつけ方と読み取り方がぜんぜん違う。
SynthIDはGoogle DeepMindが開発した不可視ウォーターマーク。
画像のピクセル自体に人間の目には見えないパターンを埋め込みます(出典: Google DeepMind SynthID)。
Geminiアプリに画像をアップして「Was this created with Google AI?」と聞くと、アプリ側がパターンを読み取って答えを返す仕組み。
Content CredentialsはC2PAという業界標準規格に沿って、画像のメタデータ部分に「誰が作ったか」「いつ作ったか」「どのツールで作ったか」を記録する仕組みです。
Adobe・Microsoft・OpenAI・BBC・Sonyなど200社以上が加盟するConsortium運営(出典: C2PA公式)。
判定はContent Credentials Verifyという無料のWebサイトに画像をドラッグ&ドロップするだけ。
仕組みが違うので、対応AIも判定できる範囲もズレます。ここが厄介。
| 項目 | SynthID | Content Credentials(C2PA) |
|---|---|---|
| 開発元 | Google DeepMind | C2PAコンソーシアム(200社以上) |
| 仕組み | ピクセルに不可視パターン埋め込み | メタデータに署名付き履歴を記録 |
| 判定窓口 | Geminiアプリ/専用ポータル | Verify公式サイト(無料・登録不要) |
| 主な対応AI | Gemini/Imagen/Lyria/NotebookLM | GPT-4o/Sora/Adobe Firefly/Bing |
| SNSアップ後 | 残る | ほぼ100%剥がれる |
| スクショ後 | 約91%残る | 消える |
| 料金 | 無料 | 無料 |
表を見ると、両者は対立する技術ではなく補完関係。
Geminiが対応するAIをSynthIDで、OpenAI・Adobe系をC2PAで、それぞれ別々にカバーしている。
私の見方では、片方だけ使う時点で判定漏れの穴が大きいです。
判定マトリクス2×2の4象限と読み方
1枚の画像をSynthIDとC2PAの両方で判定すると、結果は4パターンに分かれます。
これを2×2のマトリクスで整理しておくと、目の前の画像をどう扱うか判断しやすい。
| 象限 | SynthID | C2PA | 意味 | 判断 |
|---|---|---|---|---|
| ① | あり | あり | Google系AI+C2PA記録あり | AI生成確定 |
| ② | あり | なし | Google系AI、C2PA剥落 or 元から無し | AI生成確定 |
| ③ | なし | あり | OpenAI系・Adobe系AIなど | AI生成確定 |
| ④ | なし | なし | 本物の写真 or 規格非対応AIで生成 | 追加検証が必要 |
怖いのは④象限です。
MidjourneyとStable Diffusion(ローカル実行版)は2026年初時点でC2PAもSynthIDも対応していません(出典: c2paviewer.com)。
つまり「両方なし」は本物の写真とは限らない。
c2paviewer.comの解説はこう書いている。
"Midjourney does not embed C2PA Content Credentials in generated images as of early 2026, and images downloaded from Midjourney via Discord or the web interface carry no C2PA manifest."(出典: c2paviewer.com / AI Tools C2PA Support)
④象限に当たった画像は、別の手段で追い込む必要があります。
- Google画像検索やTinEyeで逆画像検索をかけて、元の出どころと公開日を辿る
- 画像のEXIF情報(撮影機種・GPS・タイムスタンプ)を確認する。本物の写真なら何かしら残っている可能性が高い
- 目視で「指の本数」「文字の崩れ」「光源と影の整合性」「背景の溶け」をチェックする
これでも決定打にならない時は、提供者にヒアリングするしかない。
判定不能を判定不能のまま扱うのが最後の正解です。
業務シーン別の判定ワークフロー(4種別)
マトリクスの読み方が分かったところで、業務シーン別の手順に落とします。
Q1で想定している4職種それぞれで、判定の入り口と着地点を書きます。
採用担当:履歴書の顔写真・職務経歴書の本人写真
Fortuneの2025年4月報道によれば、米司法省は2024年5月に「300社以上の米国企業が北朝鮮系の偽候補者をリモートIT職に誤採用、被害額は少なくとも680万ドル」と発表しています(出典: National Law Review)。
Gartnerは「2028年までに世界の求職者プロフィールの4人に1人が偽物になる可能性」とも予測しています。
Malwarebytesの調査では、採用担当者の59%が候補者のAI偽装を疑った経験あり、3人に1人が面接で偽IDや代理人の使用を発見済み。
一方で「自社の採用プロセスで詐欺的応募者を確実に検出できると確信している」のは19%のみ(出典: Malwarebytes)。
8割は不安を抱えたまま採用判断しているという数字です。
履歴書の顔写真をチェックする手順はこうなります。
- 受領した画像ファイル(JPEG/PNG)を verify.contentauthenticity.org にドラッグ&ドロップする
- 「Issued by」「Produced with」欄に GPT-4o/Adobe Firefly/Bing Image Creator 等の表記が出たらAI生成確定。次工程は不要
- C2PAで何も出ない場合、Geminiアプリに画像をアップして「Was this created with Google AI?」と質問する(1日20回まで)
- 両方シロでも安心しない。スカウトメール返信時の文体、面接時の表情と音声のズレ、本人確認書類の整合性をクロスチェックする
Pindrop社は「Ivan X」という候補者の事例を公開しています。
バックエンドシニアエンジニア職に応募してきた候補者の面接中、表情と音声がズレているのに採用担当者が気づいてdeepfakeビデオの使用が判明(出典: Fortune)。
判定ツールは入口、最終的に弾くのは人の目です。
1つ重要な注意。
誤検出リスクがあるため「AI判定が出たから即不採用」の運用は危険です。
SynthIDの偽陽性率は2〜8%、偽陰性も発生(出典: SynthIDRemove ベンチマーク)。
判定結果は「ヒアリング対象に追加する」「本人確認を強化する」のトリガーに使うのが安全です。
記者・編集者:取材で送られてきた現場写真
取材先や読者投稿で送られてくる写真の真偽確認。
災害現場、事件現場、政治的シーンなど、誤った画像で報道すると訂正記事だけでは済まない領域です。
編集現場での手順はこう組み立てます。
- 送付元から原本ファイル(圧縮・編集なし)を取り寄せる。SNSスクショや圧縮済みJPEGでは判定材料が落ちている
- 原本を verify.contentauthenticity.org にアップして「Captured with」欄を確認する。本物の現場写真なら撮影機種(iPhone等)が記録されているケースがある
- 「Produced with」欄にAI生成ツール名が出たら掲載中止
- C2PAでシロでもGeminiアプリで再判定する。Google製AI由来ならSynthIDが残っている可能性
- 両方シロでも、TinEyeやGoogle画像検索で逆画像検索をかける。同じ画像が他媒体・SNSで先に出ていないか、撮影日とされる日より前にアップされていないか確認する
取材写真は「いつ・どこで・誰が撮ったか」の3点が裏取れて初めて使えます。
判定ツールはそのうちの「誰が(何が)作ったか」を補強する道具という位置づけ。
SNS運用担当:拾い画・素材画像のチェック
企業公式アカウントやコーポレートサイトに掲載するビジュアル素材。
AI画像と発覚した瞬間に炎上するのが2026年の現実です。
JALはクレジットカード関連サイトのビジュアルでSNSから「不自然」「AI画像では」と指摘が相次ぎ、画像差し替え+謝罪に追い込まれています(出典: Web Planners 炎上事例集)。
ワコム米国法人も2024年1月にドラゴンイラストで同様の指摘を受け、使用停止と経緯説明に追い込まれました。
SNS運用担当が掲載前にやる判定はこうなります。
- 素材を提供してきたデザイナーや代理店に「使用ツール」と「権利関係」を書面で確認する
- 納品ファイルを verify.contentauthenticity.org にかけて、Adobe Firefly や GPT-4o 由来でないか確認する
- Geminiアプリでも質問する。Imagen系で作られた素材だとここで引っかかる
- 両方シロでも「Midjourney/Stable Diffusion由来かもしれない」可能性を残し、デザイナーに「Midjourneyで生成しましたか」と直接聞く
- 確証が取れない素材は、AI生成可と明記したストックサイト(Shutterstock AI等)から差し替える
SNS拡散の場面では1点さらに難しい問題があります。
アップロード後の話。
Instagram・X・LinkedIn・TikTok・FacebookはアップロードされたC2PAマニフェストを「systematically remove(組織的に削除)」しています(出典: AIIPProtection.org)。
"In 2026, effectively 100% of metadata is stripped for major social platforms. This represents a significant failure of the C2PA standard's original purpose."(出典: AIIPProtection.org)
SNSで拡散されている画像をスクショして取り込んでも、C2PA情報はほぼ100%消えている。
判定はアップロード前の原本でやるのが鉄則です。
コンテスト主催者:応募作品のAI使用判定
埼玉県「第42回埼玉サロン」では743点の応募作品から最優秀賞に選ばれた「俺の頭だぞ!」が、海外SNSユーザーの指摘でAI生成+ロイヤリティフリーサイトからの流用と判明。
受賞取り消しに発展しました(出典: Unseen Japan)。
ポケモンカードイラストコンテスト2024でも、AI調の一次審査通過作品が複数指摘されて炎上しています(出典: puizu.com)。
応募作品の判定はこの順番で組みます。
- 応募規約に「AI使用の有無を申告」「使用ツール名の記載」を必須化する。判定の前に申告をもらう
- 応募ファイル(原本)を verify.contentauthenticity.org に通す。Adobe Firefly・GPT-4o系で作られていればここで判明
- Geminiアプリでも判定する。Imagen系の生成物が混じっていればここでヒット
- 両方シロでも、TinEyeで逆画像検索する。Midjourney等で生成された作品はDiscord公開ログから探せる場合がある
- 応募者にDM等で「使用ツール」を再確認する。最終判定は本人ヒアリングと作画工程の説明で行う
ここでも「AI判定が出たから即失格」は危険です。
誤検出のリスクと、申告漏れの善意の応募者を弾くリスクが両方ある。
判定は「ヒアリング対象に上げる」基準として運用するのが現実解。
AI画像生成ツール別の対応状況一覧
各AIツールがどっちに対応しているかを表で整理します。
判定マトリクスの④象限(両方なし)に落ちる画像がどこから来るのかを把握しておくと、判定の精度が上がります。
| ツール | C2PA | SynthID | 備考 |
|---|---|---|---|
| OpenAI GPT-4o / DALL-E 3 | 対応 | 非対応 | 2023年からDALL-E 3で対応 |
| OpenAI Sora | 対応 | 非対応 | MP4・MOV形式 |
| Adobe Firefly | 対応 | 非対応 | 100%自動付与 |
| Microsoft Designer / Bing | 対応 | 非対応 | 左下に可視マーカーも |
| Google Imagen / Gemini画像生成 | 一部対応 | 対応 | SynthIDが主軸 |
| Midjourney | 非対応 | 非対応 | 2026年初時点で実装予定なし |
| Stable Diffusion(ローカル) | 非対応 | 非対応 | オープンソースのため |
| Stability AI(ホスト版) | 対応 | 非対応 | ホスト版のみ |
| FLUX.2 Pro | 対応 | 非対応 | API出力に付与 |
表を読むと、SynthIDが効くのはGoogle系列だけ、C2PAはそれ以外の主要商用AIをカバーする構図。
両方非対応のMidjourneyとStable Diffusionローカル版が「④象限の主犯」です。
私の見方では、この2つの判定をどう詰めるかが業務上の最大のリスクポイント。
Adobe Firefly公式の解説はこう書いている。
"Adobe automatically applies Content Credentials to assets where 100% of the pixels are generated with Adobe Firefly, such as Text to Image."(出典: Content Authenticity Initiative)
規制動向:EU AI法と日本の歩調
判定の必要性は読者の業務リスクだけの話ではなく、規制の流れとしても固まりつつあります。
私が記事冒頭で「両方併用」と書いたのは、この規制動向と方向性が一致するからです。
EU AI法のArticle 50は2026年8月2日から本格施行。
AI生成画像・映像・音声を機械可読形式でマーキングする義務が課されます(出典: Herbert Smith Freehills Kramer)。
"The draft Code of Practice makes clear that no single marking technique is sufficient on its own, mandating a multi-layered approach."(出典: Herbert Smith Freehills Kramer)
「単一の技術では足りない」と明示されている点が重要。
C2PAだけ、SynthIDだけ、ではダメで、メタデータ系とピクセル埋め込み系を組み合わせた「多層アプローチ」が義務化されます。
これは記事冒頭で「両方併用が現実解」と書いたのと同じ結論です。
日本はAI基本法が2025年5月に国会承認、AI基本計画が2025年12月に内閣府で承認されました。
ただEUのような透かし義務化の具体規定はなく、ガイドラインベースのソフトロー方針。
とはいえEU向けに展開する企業や、グローバルなSNSプラットフォームに投稿する企業は、結局EU基準に合わせざるを得ないというのが実務の流れになりそうです。
SynthID Detectorポータルとウェイトリストの現状
Geminiアプリ統合とは別に、ジャーナリスト・メディア専門家・研究者向けの専用ポータル「SynthID Detector」が存在します。
Google I/O 2025(2025年5月20日)で発表されたものです。
2026年5月時点でも一般公開は始まっておらず、ウェイトリスト制が継続しています。
Google公式ブログ(2025年5月20日 Google I/O)はこう書いている。
"Access to SynthID Detector is being rolled out to testers, with its full suite of capabilities becoming available in phases. If you're interested in content transparency or want to see the tool in action, join our waitlist now."(出典: Google公式ブログ SynthID Detector)
つまり一般のSNS運用担当・採用担当が今すぐ使えるGoogle系の窓口は、Geminiアプリ経由(1日20回・動画10回)。
専用ポータルはメディア寄りの早期テスト段階。
ウェイトリストへの参加申請は公式フォームから可能です。
2技術の限界とクロスチェックの位置づけ
SynthIDとC2PAは強力ですが、両方とも明確な限界があります。
判定ツールに過信は禁物。
OpenAI公式ヘルプはこう書いている。
"It's crucial to understand that C2PA metadata is not a silver bullet to address issues of provenance. It can easily be removed either accidentally or intentionally. For example, actions like taking a screenshot can remove C2PA metadata."(出典: OpenAI Help Center / C2PA in ChatGPT Images)
SynthID側もFileza.ioの解説では「C2PA strips the moment you screenshot a generation, crop it, or upload it to any platform that recompresses the file.」と限界を指摘されています(出典: Fileza.io)。
SynthIDの実精度も完璧ではない。
実世界での検出精度は85〜98%、偽陽性率2〜8%(出典: SynthIDRemove ベンチマーク)。
100枚に2〜8枚は誤判定が混じる前提です。
私の結論として、業務判定は「2技術+逆画像検索+EXIF+目視+本人ヒアリング」の5層クロスチェックが現実解。
1つのツールに「白か黒か」の最終判断を委ねない運用にしておくのが、誤判定で人を傷つけず、見逃しで運用側が傷つかない着地点です。
FAQ
Q1. ChatGPTで生成した画像をスクショで保存したらC2PA情報は残りますか
残りません。
OpenAI公式ヘルプによれば、右クリック保存(PNG)ではC2PAメタデータが保持されますが、スクリーンショットでは撮影時の処理でメタデータが失われます。
ブラウザのCanvas APIがピクセルデータのみ保持しファイルメタデータは保持しないため。
OpenAI自身も「メタデータが無くてもOpenAIのツールで生成された画像であることに変わりはない」と補足しています。
Q2. Midjourneyで作った画像はどう判定すればいいですか
SynthIDもC2PAも非対応のため、両方とも何も返しません。
判定マトリクスの④象限に落ちます。
逆画像検索(Google画像検索・TinEye)でDiscord公開ログを探す、目視で指の本数や文字の崩れをチェックする、提供者に使用ツールをヒアリングする、の3点で追い込むのが現実的な方法。
EU AI法の2026年8月施行で規制圧力が増しているため、Midjourney側の対応も将来的には変わる可能性があります(出典: c2paviewer.com)。
Q3. Geminiアプリの判定は1日何回までですか
2025年12月時点で画像検証は1日約20回、動画検証は1日約10回。
Geminiアプリに画像をアップロードして「Was this created with Google AI?」と質問する形式です(出典: Google公式ブログ 2025年11月20日)。
業務で大量チェックする想定なら、Content Credentials Verifyとの併用で本数を分散させるのが運用上の工夫になります。
Q4. Content Credentials Verifyは登録やログインが必要ですか
不要です。
verify.contentauthenticity.org にアクセスして画像をドラッグ&ドロップするだけ。
ブラウザ内で処理される設計のため、画像が外部サーバーに送られることもありません。
料金も完全無料。
対応形式はC2PA規格上 JPEG・PNG・WebP・TIFF・HEIC・AVIF・DNG・MP4・MOV・MP3・WAV・PDF。
Q5. SynthIDの誤判定率はどれくらいですか
偽陽性率2〜8%、実世界の検出精度85〜98%(出典: SynthIDRemove ベンチマーク)。
スクリーンショット後の検出信頼度は約91%(skywork.ai調査)。
100枚あれば2〜8枚は誤判定する前提のため、採用や応募作品の最終判定をSynthID単独で下すのは危険です。
複数手段でのクロスチェックが推奨されます。
このページに出てきた言葉
このページに出てきた言葉
- SynthID
- Google DeepMindが開発したAI生成コンテンツ識別技術。画像のピクセルに人間の目には見えないパターンを埋め込む不可視ウォーターマーク方式
- C2PA
- Coalition for Content Provenance and Authenticityの略。Adobe・Microsoft・OpenAI・BBC・Sony等200社以上が加盟する業界標準コンソーシアム。画像や動画の出どころを記録する規格を策定
- Content Credentials
- C2PA規格に基づいて画像のメタデータ部分に作成元・使用ツール・編集履歴を記録する仕組み。Verify公式サイトで無料判定可能
- 不可視ウォーターマーク
- 人間の目では見えないパターンを画像のピクセル全体に薄く埋め込む技術。コピーや圧縮しても消えにくい設計
- メタデータ
- 画像ファイルの中に同梱されている情報部分。撮影日時・カメラ機種・編集履歴などが書かれている
- マニフェスト
- C2PAの「履歴書」のようなもの。画像が誰の手で作られ、どう編集されたかが署名付きで書かれている
- EXIF情報
- 写真ファイルの中に自動で記録される撮影情報。カメラ機種・撮影日時・GPS座標・露出設定など
- 逆画像検索
- 画像をアップロードして、その画像がネット上のどこに出ているかを探す検索方式。Google画像検索やTinEyeが代表的
- 偽陽性
- 本物なのに「AI生成」と誤判定すること。逆に「偽陰性」はAI生成なのに「本物」と誤判定すること
- deepfake
- AIで作られた偽の動画や画像。顔を別人と入れ替えたり、存在しない人物を生成したりする技術全般
- Article 50
- EU AI法の第50条。AI生成コンテンツの透明性義務を定めた条文。2026年8月2日から本格施行
- 多層アプローチ
- 1つの技術ではなく、メタデータ+不可視ウォーターマーク+目視チェックなど複数の手段を組み合わせる方針
参考リンク
- Google DeepMind SynthID公式
- GeminiアプリSynthID統合発表(2025年11月20日)
- SynthID Detector発表ブログ(2025年5月20日)
- Content Credentials Verify(無料判定サイト)
- C2PA公式
- AI生成ツール別C2PA対応状況一覧
- SNSアップロード時のC2PAメタデータ剥落(AIIPProtection)
- SynthID検出精度ベンチマーク
- EU AI法 透明性義務解説(HSF Kramer)
- Fortune 採用詐欺事例
- 埼玉県写真コンテストAI受賞取り消し事例
※この記事の内容は執筆時点のものです。AIは進化が速い分野のため、最新の仕様は公式サイトでご確認ください。