記事に戻る

女子生徒のSNS画像をAIで裸の画像に加工…《ディープフェイクポルノの被害者、中学生が5割超》卒業アルバムの悪用は自衛が難しい、どうすればの写真一覧

下に画像が続きます
児童の性的ディープフェイク被害・加害防止のための広報啓発資料
警察庁は「児童の性的ディープフェイク被害・加害防止のための広報啓発資料」を公開(画像:警察庁ホームページより)
4/5

誰もがAIを使い、画像や動画を自在に生成できる時代。しかしその進化の裏で、児童の顔写真が巧妙に加工された「ディープフェイクポルノ」という深刻な被害が急増しています。卒業アルバムなど日常の写真からでも被害は広がり、被害者・加害者ともに中高生が中心となる実態も。加害・被害を防ぐため、私たちができることとは?(このリード文はAIが作成しました)

記事に戻る