AIがチェス談義を「人種差別」と誤判定した理由 「責任あるAI」実践するための4つのアプローチ

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
AIに学習させる「データ」そのものや訓練や評価の段階で社会的偏見、バイアスが入り込んでしまう場合があるという(写真:Christian Horz/iStock)
「暴言」を吐くAIチャットボット、「人種差別」をする犯罪予測AI、「男女差別」をする人材採用AI・与信審査AI……。AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている。
AIに学習させる「データ」そのものや訓練や評価の段階で社会的偏見、バイアスが入り込んでしまう場合があるという。逆に「人種差別」的な言葉を検出するアルゴリズムによって、他愛のない「チェス談義」が「ヘイトスピーチ」とみなされ、YouTubeチャンネルが突然閉鎖されるなどということも起きている。
「悪さ」をしない、「責任あるAI」を実践するためにどうすればよいのか。
責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、「技術」「ブランド」「ガバナンス」「組織・人材」の4つの面からのアプローチについて解説する。

AIが「人種差別発言」と誤判定?

2020年6月、チャンネル登録者数が100万人を超え世界最大級を誇るチェスのYouTubeチャンネルが、人種差別発言を含むヘイトスピーチであるとして突然閉鎖されるという事件が起きました。ほどなくチャンネルとアカウントは復活したものの、その後の研究により、どうやら動画の内容をチェックするアルゴリズムが「黒」「白」「攻撃」「防御」といった言葉をヘイトスピーチとして誤判定した可能性が指摘されています。

『責任あるAI 「AI倫理」戦略ハンドブック』(書影をクリックすると、アマゾンのサイトにジャンプします。紙版はこちら、電子版はこちら。楽天サイトの紙版はこちら、電子版はこちら

折しもその直前の2020年5月25日、アメリカ・ミネソタ州ミネアポリスで黒人のジョージ・フロイド氏が白人警官の暴行により死亡するという事件が発生。この事件への抗議をきっかけに、人種間の不平等に対する抗議活動(Black Lives Matter、BLM)が始まり、やがてアメリカから世界規模への活動に発展しました。これまでに社会に存在していた不平等に対し、声を上げて抗議しようという一大ムーブメントです。

YouTubeの対応は、BLM運動の高まりを受けてアルゴリズムを修正し、動画チェックを強化したためとも考えられますが、この問題はヘイトスピーチのような言葉のニュアンスをAIが検知することがいかに難しいかということを表しています。単にキーワードやフレーズを検出するだけでは今回の例のように誤検知する可能性があり、表現の裏に潜む暗喩的な差別表現にまで対応することは、現状の文章解析AIでも難しい課題となっています。

次ページわれわれの生活は便利になったが…
関連記事
トピックボードAD
マーケットの人気記事