ある日突然「サービス遮断」、クラウドの落とし穴 解決に2カ月、AI自動審査が思わぬネックに?

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

今回のケースでは、教授が教育機関で過激芸術作品を取り扱う立場であることが当初より明らかであったため、復旧対応も可能だったと言える。ただ一般論で言えば、アメリカを拠点とするクラウドサービス事業者は、個別の判断でアカウント復旧を行うことが難しいと推察される。

アカウントを復旧させることでCSAMに該当するコンテンツが再びアップロードされ、第三者に共有されるリスクもゼロではない。どのコンテンツが正しく研究・教育目的であるかを事業者が客観的に判断できない限り、安易にアカウント復旧させることで連邦法に違反した状況を作ってしまうことにもなりかねない。

対応に時間を要した理由は明らかでないが、保管されていた(明らかにCSAMである)動画の確認というよりも、CSAMの撲滅が強くインターネット事業者に求められているアメリカ社会において、リスクを残すことなく対処するための条件を、法律家とともに検討して対応手順を慎重に決めていたためではないだろうか。

“予見できるリスク”だったのか

一連の経緯に関し、この教授が知らなかったとはいえ、CSAMに該当するファイルをアップロードしていたことが問題という指摘もあるかもしれない。しかし、筆者は今回の件を“当然予見できるリスク”だったとは思わない。

居住地域での慣習に慣れたユーザーが、社会通念上、問題視されない範囲で動画資料を保管していたことで、いっさいの通告なしにサービスが停止される。そしてサポートチームへの問い合わせにもなかなか応じない。これはいくらCSAM撲滅が叫ばれている業界事情があるとはいえ、行き過ぎではないか。

また、英語で宣誓供述書を作らせ、公証人等による認証を得ろという指示も、致し方ない事情はあったにせよ、必ずしも適切とは思えない。アメリカの会社とはいえ、営業区域は日本であり、日本の法律や慣習に基づく対応が本来は求められるべきではないだろうか。

アカウント復旧に当たっての要求は、ユーザーのプライバシーに踏み込むものでもあった。職務上CSAMを取り扱うことになった詳細な経緯の説明を求めることは必要なことだったのだろうが、本来守られるべき通信内容のプライバシーはもちろん、利用者の職務や組織内での立場なども証明せねばならないなど、一般ユーザーへの要求としては過度な負担ではないだろうか。

関連記事
トピックボードAD
ビジネスの人気記事