合成ポルノ画像を拡散、韓国「新手の性犯罪」の闇 根の深い問題に政府はどこまで立ち向かえるか

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
(写真:Woohae Cho/Bloomberg)

2020年、若い女性たちにみだらな動画の撮影を強要して有料視聴者に見せていた脅迫グループを追っていた韓国当局は、SNSの闇の奥で流れている別の問題を見つけた。他人の顔を露骨に合成したポルノ画像だ。

新たに浮上しつつあるディープフェイクポルノの試みに当局はどう対処してよいかわからず、その結果、ディープフェイクポルノの制作・流布を取り締まる曖昧な文言の法律が国会で制定された。それでも、AI技術を使った犯罪の波を防ぐことはできず、女性を見下す韓国のオンライン文化は新たな深みを見せている。

最近では、一段と多くの若い男性や10代の少年が同級生や教師、軍の同僚のSNS画像——そのほぼすべてが未成年者を含む若い女性や少女のものだ——を何百、何千と入手し、ディープフェイクアプリを使って彼女たちを性的に搾取する画像や動画を作成していることが発覚し、国民に衝撃が広がっている。

本物そのものに見える恐ろしさ

彼らは暗号化されたメッセージアプリ、テレグラムのチャットルーム(中には22万人もの参加者がいるものもある)を通じてディープフェイクポルノを拡散している。こうしたディープフェイクでは、餌食となった女性の顔をポルノから取得した性的に露骨なポーズをとる体に合成するのが一般的だ。

捜査当局によると、技術の洗練度は極めて高く、多くの場合、一般人には偽物と見抜くのは難しい。国が問題への対応を急ぐ中、専門家からは、韓国では新しいテクノロジーに対する熱狂が倫理的な影響への懸念を上回ることがあるといった指摘が上がっている。

関連記事
トピックボードAD
政治・経済の人気記事