越境するディープフェイクポルノ──法の壁を越える“犯行”と捜査の限界

読売新聞の4月6日付社説「性的偽画像 被害を防ぐ対策の検討を急げ」や、鳥取県知事が三原じゅん子地方創生担当大臣に対してディープフェイク規制を要請したニュースなどを目にして、あらためてこの問題の“国境”の壁について考えてみました。

たとえば、米国のチャットアプリ「Discord」に日本人女性のディープフェイクポルノ画像が投稿された場合、削除依頼は比較的容易に対応されるかもしれませんが、投稿者の特定には大きな障壁が立ちはだかります。

日本における処罰の現状と限界

現在の日本にはディープフェイクポルノそのものを処罰する明確な法律は存在しません。そのため、名誉毀損、著作権侵害、あるいは猥褻物頒布といった既存の法体系を援用する形になります。

ただし、ディープフェイクポルノ画像が無修正でない場合、猥褻物としての事件化は難しくなります。また、著作権侵害を理由とする場合、被害者本人が著作権者でなければ訴えることができません。たとえば、ディープフェイク生成に使用された素材が、ポルノサイトが著作権を有する画像だった場合、訴えの利益を有するのはポルノサイトであって、被害女性自身には著作権者としての立場がありません。

結果として、被害者は名誉毀損を理由に、刑事告訴または民事訴訟を選択するしかなくなります。

国内摘発事例の紹介──警視庁と千葉県警の合同捜査

2020年10月、警視庁と千葉県警は、複数の女性芸能人の顔を無断でポルノ画像に合成し、インターネット上に投稿していた人物を、名誉毀損および著作権法違反の疑いで摘発しました。この事件では、合成に使用されたポルノ画像が市販のDVD作品のキャプチャであり、著作権者が明確に存在したことが摘発の根拠となりました。

また、投稿が海外サーバーを介して行われていたことから、通信記録の解析やプロバイダへの照会など、通常以上に複雑な捜査が必要だったとされています。最終的には、国内のネットカフェを利用したアクセス履歴などから発信者の特定に至ったようですが、これも非常に限定的な成功例といえるでしょう。

アメリカにおける開示請求の壁

問題がより複雑になるのは、投稿されたプラットフォームがDiscordのようにアメリカ企業によって運営されている場合です。Discordはカリフォルニア州に本社を置いており、その対応はアメリカ合衆国法の影響を大きく受けます。

アメリカでは、憲法修正第1条によって表現の自由が非常に強く保護されています。このため、「名誉毀損」を理由に捜査機関が情報開示を強制することは極めて困難です。米国内で捜査機関が情報開示請求を行えるのは、以下のような刑事事件に該当する場合に限られます:

  • 児童ポルノ関連犯罪(Child Pornography)
  • リベンジポルノ(Revenge Porn)
  • サイバーストーキング(Cyberstalking)
  • 脅迫(Threats)
  • ハラスメント(Harassment)
  • 著作権侵害(Copyright Infringement)

このうち、ディープフェイクポルノが児童ポルノやリベンジポルノに該当する場合は別ですが、そうでない場合は開示に至る可能性は低く、米国内の捜査協力は期待できません。

日米刑事共助条約(MLAT)の可能性と限界

日本とアメリカは「日米刑事共助条約(MLAT: Mutual Legal Assistance Treaty)」を締結しており、捜査協力が可能な枠組みは存在します。しかし、この条約が有効に機能するのは、「刑事事件として捜査中」であり、かつ「日米双方で犯罪と認識される行為」に限られます。

たとえば、ディープフェイクポルノがリベンジポルノやストーカー規制法違反、脅迫行為などに該当する場合にはMLATを通じた照会が可能です。しかし、単なる名誉毀損だけでは、アメリカ側の協力を得ることはほぼ不可能です。

民事訴訟という選択肢──John Doe訴訟

刑事ルートが機能しない場合、被害者は民事でDiscord社を相手に発信者情報の開示を求めるしかありません。この際に使われるのが、アメリカの「John Doe訴訟」と呼ばれる匿名被告を対象とした手続きです。

これは、投稿者が不明な状態でも裁判所に訴えを起こし、プラットフォーム企業に対して裁判所命令(Subpoena)を発行して情報開示を求める方法です。

ただし、これは英語による訴訟であり、弁護士費用・翻訳費用・現地対応などが発生するため、一般の被害者にとっては非常に高いハードルがあります。

国際的なルールと技術による対応の必要性

日本国内でディープフェイクポルノの規制法を整備することは重要ですが、それだけでは足りません。インターネットを通じて国境を越えるこの問題には、国際的な連携が不可欠です。

以下のような対策が今後求められます:

国際的な法制度の整備

たとえばEUが採用している「デジタルサービス法(DSA)」のように、プラットフォーム事業者に対して違法コンテンツへの対応義務を課す制度の導入が考えられます。こうした共通基準の確立は、各国の足並みをそろえる上で重要です。

海外プラットフォームとの連携強化

日本の総務省や警察庁などの行政機関が、GoogleやMeta、Discordなどの海外大手プラットフォームと情報共有体制を強化し、迅速な対応ができる窓口整備を進める必要があります。

技術的対策の推進

AI技術を活用したディープフェイク検出ツールや、画像の出所追跡技術(プロビナンス技術)などを導入し、自動検出・削除を促進する体制が求められます。たとえば、Microsoftが開発した「Video Authenticator」や、Adobeと連携する「Content Authenticity Initiative」などが一例です。


「Content Authenticity Initiative(CAI)」は、Adobeが主導し、複数のメディア企業やテクノロジー企業、NGOなどと連携して推進しているプロジェクトで、画像・映像・音声などのコンテンツに“出所と改変の履歴(プロヴナンス)”を記録し、信頼できるコンテンツかどうかを可視化することを目的としています。もしディープフェイク画像や映像にこうしたCAI対応の“信頼できる正規版”が存在すれば、AIはメタデータの欠損や不整合を検出し、それをもとに「フェイクである可能性が高い」と判断する補助材料になります。

つまり、正しい情報が記録されたオリジナルと、記録が欠落・改ざんされたフェイクの差分をAIやツールで識別できるようになります。
この規格に対応した画像・動画が普及すれば、将来的にSNSやプラットフォーム側で

• CAIメタデータのない画像・映像の自動警告表示

• フェイクの疑いがあるコンテンツの自動フィルタリング

• 投稿者への再確認プロンプト

など、プラットフォーム側の対応がしやすくなると期待されます。

“表現の自由”とどう向き合うか

ディープフェイク技術は、創造的・表現的な使い道もある一方で、悪意のある利用が個人の尊厳を深く傷つける現実があります。とりわけ、その被害が国境を越えて行われたとき、私たちの法律や制度はそのスピードについていけていません。

国際的な協調と、プラットフォーム事業者の責任、そして技術による補完。それらを組み合わせることで、ようやくこの問題に立ち向かう土俵に立つことができるのではないでしょうか。

「越境するディープフェイクポルノ」の現実に、私たちはもっと目を向けなければなりません。

Follow me!