学校に広がるAI生成「ディープヌード」の大問題 未成年女子を襲う新種の性被害
カリフォルニア州ビバリーヒルズのビバリービスタ中学校では、5人の男子生徒が女子クラスメートの露骨なAI生成画像を作成し共有していたことが発覚し、学校側が2月に警察へ通報した。学区の文書によると、その2週間後、教育委員会は5人の生徒の退学処分を承認した。
ビバリーヒルズ統一学区の教育長マイケル・ブレギーは、自分を含む学校指導者たちは、生徒が同級生の性的に際どい画像を作成し拡散することを学校として許してはならないという全国的な前例を作りたかったと述べた。
素材はSNSからコピーした写真
ビバリーヒルズとウェストフィールドという小さな富裕層コミュニティーにあるこれらの学校は、ディープフェイク問題を公に認めた最初の学校だが、学区内保護者との連絡、教育委員会の会議、議会の公聴会、裁判所の資料などに記された事件の詳細によって、学校による対応の違いが浮き彫りとなっている。
被害女子とその家族が男子生徒とその保護者を相手取って起こした訴訟の裁判資料によると、ウェストフィールドの事件は、昨年夏、高校の男子生徒が非公開アカウントを持つ15歳の女子クラスメートにInstagramでフレンド申請を行ったことから始まった(マニ親子はこの訴訟には関与していないと述べている)。
女子生徒が申請を受け入れると、その男子生徒は彼女と複数の女子生徒の写真をソーシャルメディアアカウントからコピー。AIアプリを使って女子生徒の性的に生々しい「完全に特定可能な」画像を作成し、Snapchatのグループを通じて同級生と共有した。
ウェストフィールド高校は10月下旬に調査を開始した。フランチェスカ・マニの話では、学校側は一部の男子生徒を静かに脇に呼んで事情聴取を行う一方で、ディープフェイク被害を受けたフランチェスカをはじめとする10年生の女子生徒を校内放送で名前を呼んで職員室に呼び出した。