ある日突然「サービス遮断」、クラウドの落とし穴 解決に2カ月、AI自動審査が思わぬネックに?
実は、CSAMが含まれていたことが問題だと知らされるまでにも、かなりの時間を要した。
本件はシステム上の誤動作ではなく運用ポリシーや法律に関わる問題であることが明らかだったため、ガバナンスの観点から筆者がコンタクトしていた幹部は主体的に関わることができなくなった。本当に教授に問題がないのか、判断へのバイアスを極力排除する必要があるからだ。
CSAMに該当するのであれば、ユーザーの主張をそのまま鵜呑みにできないプラットフォーマー側の事情もある。あの手この手で、自分の責任ではないと主張を繰り返す可能性もある。最終的に、「CSAMに該当する」との連絡があったのは2月下旬のことだった。
教授に課せられた厳しい“復旧条件”
教授には2月28日に、一定の条件の下でアカウント復旧の可能性が示されたが、その条件は以下の通り厳しいものだった。
・教授自身の職業、役職、職務内容の詳細、および職務上児童の性的虐待資料(CSAM)に接する可能性があった経緯についての簡潔な説明
・CSAMがアップロードされたと考えられる経緯
・サービスの利用規約で、CSAMやその他の違法コンテンツの保存が禁止されていると理解していること
・今後、同様の資料を保存しないようにする明確な措置について言及すること
これらを文書にしたうえで、宣誓供述書(行政書士による書類作成と公証人による認証を受けたもの)を用意して送信することが求められた。
サービス事業者側の立場に立てば、連邦法を守ることが極めて重要であることは理解できる。法的なリスクを排除するには、こうした条件を出すほかなかったのだろう。
これらの条件をすべて満たしたうえで、アカウントの復元が行われたのは3月13日、その後、いくつかの端末に残っていたCSAM該当ファイルが自動同期され、アカウント再凍結などに至るトラブルもあり、完全復旧できたのは3月17日だった。
無料会員登録はこちら
ログインはこちら