女子生徒のSNS画像をAIで裸の画像に加工…《ディープフェイクポルノの被害者、中学生が5割超》卒業アルバムの悪用は自衛が難しい、どうすれば

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
児童の性的ディープフェイク被害・加害防止のための広報啓発資料
警察庁は「児童の性的ディープフェイク被害・加害防止のための広報啓発資料」を公開し、注意を呼びかけている(画像:警察庁ホームページより)

生成AIが急速に浸透し、誰もが画像や動画を簡単に作成できる時代が訪れました。同時に、「ディープフェイク」と呼ばれる精巧な偽画像や動画が作成できるようにもなりました。

ディープフェイクとは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。ディープフェイクの中には、ポルノ画像や動画の顔や声を別の人物に入れ替える「ディープフェイクポルノ」と呼ばれるものがあり、子どもがターゲットにされるケースが問題視されています。

ディープフェイクポルノの被害者、中高生が8割超

2025年12月5日、名古屋市の元小学校教師の男がディープフェイクポルノを所持したとして児童ポルノ禁止法違反の罪で在宅起訴されました。生成AIによる画像所持に児童ポルノ禁止法違反が適用されたのは全国初とのことです。

在宅起訴された男は、元教員ら7人による児童盗撮グループ事件のメンバーです。彼らは盗撮した画像や動画をSNSで共有し、逮捕されています。

次ページ故人をデジタルで蘇らせることも
関連記事
トピックボードAD
キャリア・教育の人気記事