ある日突然「サービス遮断」、クラウドの落とし穴 解決に2カ月、AI自動審査が思わぬネックに?

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

端末内に同期してあるローカルストレージのファイルにもアクセスできない。再ログインを試みてもパスワードを拒否され、「このアカウントは非アクティブとしてマークされています」と表示されるのみ。アカウント乗っ取りではないかと疑いつつ、パスワードの再設定を試すも、その要求も拒否された。

業務に支障が出始める中、2日にわたってサービス事業者のサポートチームに何度も連絡を取ってみるものの、返信がなかったという。

途方に暮れた教授が筆者に連絡したのは、筆者がこのクラウドサービスの日本法人とつながりがあることを知っていたからだ。一縷の望みを託して“直接話せば、何かがわかるかもしれない”と考えたわけだ。すぐに筆者は幹部に連絡を取り、問題解決へ向けての快諾をもらった。

しかしそこから問題解決に至るまでには、2カ月という長い道のりが残っていた。

判明したアカウント停止の理由

最初にわかったのは、日本における個人向けサービスはアメリカ本社が担っており、日本法人は関わっていないということだった。日本法人は企業向けの事業開発、営業、サポートに特化しており、個人向けグローバルサービスは本社が一括している。クラウドを通じた個人向けのグローバルサービスでは一般的な体制と言える。

そこで本社のサポート部門に確認してもらったところ、教授の問い合わせに対してサポート部門からすぐに返信がなかった理由が判明した。教授のアカウントに同社の倫理規定に抵触するコンテンツが含まれていたことが、アカウント停止の原因だったからだ。

単なる倫理規定違反ならば、まだ交渉の余地はあったかもしれない。しかし抵触していたのは、「CSAM(Child Sexual Abuse Material:児童性的虐待コンテンツ)」と呼ばれる未成年を扱った露骨な性的コンテンツだった。

アメリカではCSAMに該当する写真、動画、コンピュータ生成による画像などのあらゆる映像描写に対する流通防止の義務があり、これは通信事業者においても同じだ。

通信品位法の下、送受信されるコンテンツ内容に関して通信プロバイダの責任が免除されることは広く知られているが、そこには例外的な事例もある。通信プロバイダはCSAMの拡散を防止するため、児童ポルノの流通防止措置を講じることを義務付けられている。

関連記事
トピックボードAD
ビジネスの人気記事