AIに学習させる「データ」そのものや訓練や評価の段階で社会的偏見、バイアスが入り込んでしまう場合があるという。逆に「人種差別」的な言葉を検出するアルゴリズムによって、他愛のない「チェス談義」が「ヘイトスピーチ」とみなされ、YouTubeチャンネルが突然閉鎖されるなどということも起きている。
「悪さ」をしない、「責任あるAI」を実践するためにどうすればよいのか。
『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、「技術」「ブランド」「ガバナンス」「組織・人材」の4つの面からのアプローチについて解説する。
AIが「人種差別発言」と誤判定?
2020年6月、チャンネル登録者数が100万人を超え世界最大級を誇るチェスのYouTubeチャンネルが、人種差別発言を含むヘイトスピーチであるとして突然閉鎖されるという事件が起きました。ほどなくチャンネルとアカウントは復活したものの、その後の研究により、どうやら動画の内容をチェックするアルゴリズムが「黒」「白」「攻撃」「防御」といった言葉をヘイトスピーチとして誤判定した可能性が指摘されています。
折しもその直前の2020年5月25日、アメリカ・ミネソタ州ミネアポリスで黒人のジョージ・フロイド氏が白人警官の暴行により死亡するという事件が発生。この事件への抗議をきっかけに、人種間の不平等に対する抗議活動(Black Lives Matter、BLM)が始まり、やがてアメリカから世界規模への活動に発展しました。これまでに社会に存在していた不平等に対し、声を上げて抗議しようという一大ムーブメントです。
YouTubeの対応は、BLM運動の高まりを受けてアルゴリズムを修正し、動画チェックを強化したためとも考えられますが、この問題はヘイトスピーチのような言葉のニュアンスをAIが検知することがいかに難しいかということを表しています。単にキーワードやフレーズを検出するだけでは今回の例のように誤検知する可能性があり、表現の裏に潜む暗喩的な差別表現にまで対応することは、現状の文章解析AIでも難しい課題となっています。