深刻化するディープフェイクポルノの現状とこれからの課題
はじめに
韓国では、生成AIを悪用した性的ディープフェイクによる深刻な被害が相次いだことから、9月26日に「ディープフェイク性犯罪防止法」を国会で可決しました。この法律は、従来の「性暴力犯罪の処罰等に関する特例法」と「性暴力防止及び被害者保護等に関する法律」と「児童・青少年の性保護に関する法律」の3つの法律の改正案として成立しています(改正内容は文末をご参照)。
「ディープフェイク性犯罪防止法」は、まさに無断で生成されたディープフェイクポルノの所持・複製・視聴・流布を厳しく取り締まるものであり、特に若者をターゲットにした被害が多発したことが法改正の背景にあります。
今後、日本でも同様の問題が顕在化する可能性があるため、早期に対策を検討し始めておく必要があります。
日本国内におけるディープフェイクポルノの現状
日本ではディープフェイクポルノに関する被害報告事例は少なく、私自身、実際ネット上でそれらしき画像を目にしたこともありません。私がこれまで見てきたものは、そのほとんどが有名人やネットで炎上するなどして話題になった⼈の顔をモチーフにしたクオリティ低い性的アイコラ画像ばかりで、およそディープフェイクポルノと呼べるレベルのものではありません。しかし、これは被害が存在しないことを意味するわけではありません。ディープフェイクポルノは第三者が見ても本物のポルノかフェイクなのか見分けがつかないものなので、仮にネット上に掲載されていたとしても被害者の申告がないと表面化しないからです。
※追記:このコラムを見た「ひいらぎネット」の永守すみれさんから「Discordでそういう画像よく見かけますよ」と教えていただいたので早速探してみたところ、確かに日本人女性のディープフェイクポルノが結構見受けられました。情報ありがとうございました。
従来からあるデジタル性暴力との違い
性的グルーミングによる⾃撮り画像の要求や盗撮といった従来のデジタル性暴⼒と⽐べて、ディープフェイクポルノ特有の問題点や懸念はどういったものがあるだろうか。それには次の 2 つが考えられます。
1. 性暴⼒の新しい形態としての認識不⾜:
ディープフェイクポルノは従来の性暴⼒とは異なる形態を持つため、その被害が⾒過ごされがちです。ディープフェイクポルノは⾝体的接触を伴わないため、多くの場合、被害者⾃⾝が「本当にこれが性暴⼒なのか︖」と⾃問してしまうケースもあると思います。特に学校現場では、この新しい形態のデジタル性暴⼒に対する認識が⼗分ではなく、教育や啓発活動が急務であると⾔えます。
また、ディープフェイクポルノでは本人の顔画像以外はフェイクであるため、その画像が流通することによる被害の程度が軽く評価されがちという特徴もあります。
2. 加害者にとっての罪悪感の違い:
ディープフェイクポルノは⾝体的接触を伴わないため、加害者にとっては罪悪感が薄れやすいという特徴があります。このことが加害行為を助⻑する可能性があります。
生成AI技術がデジタル性暴力に及ぼす影響
ディープフェイクポルノは、生成AIを利用して人物の顔や体を動画や画像に合成するものです。生成AIにはポジティブな用途がある一方で、デジタル性暴力を新たな形で引き起こすリスクを増大させています。被害者は、身体的接触がないにもかかわらず、自分が知らない間に性的なコンテンツに利用され、名誉が害されます。
生成AI技術の悪用による影響は以下のように整理できます:
容易なコンテンツ生成と拡散:
生成AI技術は若年層にもアクセスしやすい形で提供されており、簡単にディープフェイクを作成・共有できる環境が整っています。韓国では中高生によるディープフェイクポルノの生成と拡散が多発し、政府が早急に法整備を進めた経緯があります 。
• 心理的・社会的被害の拡大:
被害者は自分のディープフェイクポルノが作られていることに気づきにくく、映像が拡散された後にその存在を知るケースがほとんどです。また、一般的な盗撮画像では明らかな被害者と見られることに対し、どのようなコンテンツでも生成可能なディープフェイクポルノの場合、描写の態様によってはそれがフェイクだと知らない人から被害者に対する誤解が生じます。これにより、被害者の精神的な苦痛や社会的な評価への悪影響が深刻化します。
• 法的課題の複雑化:
生成AI技術が急速に進化し、様々なサービスや製品にAIが組み込まれているため、既存の法律では対応が難しいケースが増えています。日本でも性的なディープフェイクポルノを禁止する法整備の必要性が注目されていますが、技術発展に即応した規制が必要です。
被害を防ぐためにどのような⼿段が考えられるか
1.法規制の必要性と範囲について
ディープフェイクポルノはリベンジポルノや盗撮といった従来の性暴⼒と異なり、被害者は「⾃分が知らないうちに虚偽のポルノ映像にされている」という、新たな恐怖と苦痛に直⾯します。このようなデジタル性暴⼒に対しては、「性暴⼒」の範囲の拡張と、ディープフェイクポルノの⽣成・拡散防⽌、被害者救済を含めたルール作りが必要です。
もっとも、規制の範囲の設定には慎重な議論が必要です。性的なディープフェイクを⽣成した者に対して厳しい罰則を課すことは必要ですが、AI 技術全体を抑制するような過度な規制は避けるべきです。ディープフェイク技術は、映画や広告など合法的な分野でも活⽤されているので、技術全体を規制する内容だとイノベーションが阻害される懸念があるからです。
また、法規制が及ぶ範囲(国境の問題)の限界や、加害者の追跡可能性(⾼度匿名化通信)の問題、罰則による抑⽌⼒の限界(⽇本は往々にして罰則が軽い)もあることから、法律を作れば問題が⼀気に解消するとも思えません。
そのため、プラットフォーム事業者等への強い協⼒要請や、教育⾯からのアプローチなど、多⾯的な対策が必要と考えます。
2. アプリ事業者やプラットフォーム側の責任強化
法律による規制だけでなく、業界による⾃主規制やプラットフォーム側の対策とも連携することで実効性を⾼めることが可能です。例えば、SNS や動画共有サイトがディープフェイクポルノのアップロードを検知し、⾃動的に削除する仕組みを整えることで、被害拡⼤を防ぐことができるでしょう。
欧州連合(EU)ではプラットフォーム企業に対して違法コンテンツを迅速に削除する義務を課す「デジタルサービス法(Digital Services Act)」が今年 2 ⽉に施⾏され、すでにグーグルなど複数のプラットフォーム企業に多額の罰⾦⽀払いを命じています。
アメリカでは、SNS 企業が⾃主的にディープフェイクコンテンツを検出・削除するガイドラインを導⼊し、問題のあるコンテンツを⾃動で削除する仕組みが整備されています(例;Meta は深刻なディープフェイクやその他の操作された動画は、⾃社のファクトチェックプログラムによって評価され、虚偽と判断された場合は配信を制限したり警告を表⽰したりしているようです)。
また、韓国の中高校生の間でディープフェイクが広まった原因の一つに、⽣成 AI に関する専⾨知識や、⽣成 AI のプロンプトに従量制課⾦する余裕がない⻘少年でも⼿軽に利⽤できる画像加工アプリの存在があります。日本でも同様のお手軽なコラージュアプリが複数存在します。
これらに対して、
- 未成年ユーザーが性的コンテンツを⽣成できないようにする機能制限
- 成⼈ユーザーであってもディープフェイクポルノや擬似 CSAM (児童性的虐待マテリアル)を⽣成するプロンプトを無効化する機能制限
- 不適切なコンテンツを AI で検出して⾃主的に削除する運⽤
- 被害者からの削除申請に対して速やかに対応できる体制の整備
- 法執⾏機関からの開⽰要請への対応窓⼝の整備
を標準ルールとするガイドラインを策定し、それに違反するアプリはアプリマーケットから排除するようプラットフォーム事業者へ要請するとともに、そうした排除を全くしないプラットフォーム事業者への制裁措置も必要になるかも知れません。
3. 教育による予防措置
ディープフェイクの問題は技術の使い⽅にあるため、規制だけでなく教育による予防が重要と考えます。特に、SNS の利⽤⽅法や AI 技術の利⽤に伴う倫理的な問題に関する教育です。例えば、中⾼⽣に対する情報モラル教育の中で、インターネットでのプライバシー保護、他者への配慮にとどまらず、何をすればどういう犯罪になのかという点についても教えていくことで、被害や加害のリスクを減らすことが可能です。規制に頼るだけでなく、⼦供たち⾃⾝に判断⼒と責任感を持たせることが⻑期的には効果的だと考えます。
まとめ
ディープフェイクポルノの問題は、AI技術の急速な発展とともに、日本国内でも深刻化する可能性が高いと考えられます。それに備えて法整備やプラットフォームの責任強化、教育による予防策の導入など、包括的な対応が求められます。規制と技術発展のバランスを取った対策を進めつつ、国際的な連携によって効率的な被害防止を図ることが重要です。