AIの悪用の中に、偽画像・映像を簡単に作るという犯罪がある。「ディープフェイク」と呼ばれるもので、特に性的偽映像を実在の人物の画像をもとに作成し頒布するのが目立つ。なぜか、韓国でこの種の犯罪が横行している。プラットフォームとなっているのは、今話題の<Telegram>が多い(*1)ようだ。
ディープフェイクわいせつ動画、被害者の53%が韓国人で世界最多…日本は 米企業調査(朝鮮日報日本語版) - Yahoo!ニュース
によれば、被害は韓国人が53%でトップ、2位の米国人20%より倍も多い。3位の日本人は10%だった。個人別被害件数上位10名のうち、8人が韓国タレント・歌手である。韓国内の調査では、加害者は10歳代から20歳前後の男性がほとんど。被害者も有名タレント等を除けば同年代の女性が多く、身近な人を選んでわいせつ画像を作っているケースである。
中には中学の女性教師(30歳代)が被害に遭い、犯人は担任教室の教え子だった。しかもそれを知りながら、クラスの生徒たちは止めることも教師に知らせることもしなかった(消極的共犯)という。
なぜ韓国にこの種の犯罪が多いかについては諸説あり、
・日本以上に「男尊女卑」の考え方が強い
・幼少期からデジタルに馴染み、この種の犯罪に対するリテラシーが低い
・フェイク画像作成こそ最大懲役5年の刑だが、視聴等には罰則がない
などが挙げられている。
韓国ユン政権も事態を重く見て、大統領が関係部署に根絶を指示したという。具体的には作成の罪を最大懲役7年に罰則強化するとともに、所持・購入・保存・視聴しただけでも最大懲役2年に処することができるようにする(*2)。同時にインターネット上の監視能力を強化する。これも一種のコンテンツモデレーションである。
写真1枚あれば狙った相手を餌食にできるのが、この種の卑劣な犯罪の恐ろしいところ。厳罰化は必要だが、それだけでは防げない。何度か紹介しているように、一旦インターネット上に流れてしまえば、無限に複製できるし消去はできないので被害は永久に続くのだから。
*1:韓国警察がテレグラムを調査開始、「デジタル性犯罪」に関与の疑い | Forbes JAPAN 公式サイト(フォーブス ジャパン)