生成AIによる擬似CSAMの本質的な問題とは
◾️諸外国が重点課題と捉えるAI生成CSAM
児童の性的搾取の問題に取り組む国々の中で今、生成 AI による擬似児童ポルノ(以下、「擬似CSAM1」と呼ぶ)への対応が重点課題になっている。 特に欧米の国々は日本より問題意識が高く、INHOPE2のミーティングやG7会合などでも生成AIサービスで擬似CSAMを作るためのプロンプト規制について活発な議論がなされている。英国はすでに「AI生成CSAM」をリアルCSAMと同様に犯罪として扱っている。
日本では児童ポルノ禁止法の保護法益が「実在する児童の権利」であるが故に擬似CSAMは児童ポルノになり得ない。これまで何度か漫画やアニメ、CGによる擬似児童ポルノへの規制の議論は行われたが、「表現の自由」と「犯罪との因果関係不明」を理由に反対する声に押され、議論は止まったままだった。
ではなぜ、日本以外の国ではこれほどの熱量を持って擬似CSAMを問題視しているのか。その本質的な意味を知ることで理由が見えてきた。
◾️欧米諸国が擬似CSAMを警戒する本当の理由
前述の通り一部の国では擬似CSAMのアップロードや提供についても犯罪として捜査することはできる。しかし捜査の優先順位としては、まずは本当に被害児童が存在する事件を優先して被害者を保護する必要がある。にも関わらずAI でできた精巧な擬似CSAMが氾濫してくると、その中のどれが本物のCSAMかの判別に時間を要してしまい、ひいては被害児童の救済が遅れるリスクがある。それが問題の本質の1つである。
また、グルーミング(児童を手なづけて誘い出す)事犯においても、被疑者が自分でシナリオを作する代わりにAI に任せれば、簡単に児童を騙すためのシナリオができてしまうし、自分の画像や声まで変えることができてしまう。それによってますまず被疑者が子供や女性になりすますことが容易になり、子供たちが騙されるリスクが高まることを彼らは心配している。
さらにセクストーション(性的画像をネタに脅すこと)事犯においても、生成AIを使うことで被害者の顔を使った精巧な偽の裸画像を作る事ができてしまう。 このように、犯罪の実行を容易にするためのツールとして悪用されるという側面が、問題の本質の2つ目である。
しかし日本ではもっぱら、「架空の創作物を規制する法的根拠は何か」「そのような漫画やアニメが犯罪を助長したことを証明できるのか」といった論調や、はたまた「むしろそういう創作物が存在することで実際の犯罪に至らずに済んでいるという予防効果もあるのではないか」という主張すら見受けられ、他国とはかなり論点がずれたところで戦っている印象がある。
◾️日本の警察が擬似CSAMに対して抱いている懸念
では現在の日本の警察は擬似CSAMについてどのような問題認識を持っているのだろうか。先日、警察幹部の話しを聞いた限りでは、日本はそもそも本物の児童ポルノ事案しか検挙できないので、被疑者を検挙した際にその者が「これは AI で作った創作物です」と主張したとすると警察側で AI で作ったものではないことを疏明しなくてはならず、そういう弊害を問題視していることを知った。
もっともこれについては、現状でも児童ポルノ事犯において必ずしも警察が被害児童を特定しなくとも外観上明らかに児童ポルノだったならば立件出来ているはずなので、「これは AI で作った創作物です」と主張した場合にそれ相応の根拠を求めることで対抗できないものかと思うところである。
また民間の自主的対応の範疇で捉えれば、本物と見分けがつかないレベルの擬似CSAMはもはや児童ポルノと推認して削除するという、これまで通りの対応で特に問題はないと思われる。仮にそれが擬似CSAMだとしてもユーザーは利用規約等に拘束されるため、「そういうルールなのでダメです」と言ってしまえば済む話しだ。
◾️問題の本質に目を向けた擬似CSAMの議論に期待
いずれにしてもこのまま何もしなければ本物と見分けがつかない擬似CSAMが増えてくるのは時間の問題だろう。欧米諸国と同じように、日本でも擬似CSAMを法律で規制する事になるかどうか現時点では全く読めないが、擬似CSAMの問題の本質が「実在する被害児童の救済が遅れるリスク」と「グルーミングにより子供たちが騙されるリスク」の増加にあると考えると何らかの対策は必要不可欠だ。そういう意識が日本国民の中で広がっていくことで新たな検討が始まるのではないかと感じている。
- CSAM:Child Sexual Abuse Material ↩︎
- International Association of Internet Hotlines -インターネットホットラインの国際的な連絡組織 ↩︎