「暴言を吐くAI」「差別するAI」なぜ生まれるのか? AIの暴走を防ぐ「責任あるAI」と「AI倫理」

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
AIの活用が広まる一方で、AIが「悪さ」をする事例が……(写真:Gearstd/PIXTA)
「暴言」を吐くAIチャットボット、「人種差別」をする犯罪予測AI、「男女差別」をする人材採用AI・与信審査AI……。
AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている。なぜ、今、「AI倫理」が問われるのか。『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、AIの暴走を防ぎ、トラブルが発生したときにも迅速に対応できる備えとしての「責任あるAI」について解説する。

AIが「悪さ」をする事例が

企業が成長を続け、競争優位性を保ち続けるためにAI(人工知能)の活用が不可欠となっています。一方で、AIチャットボットが「暴言」を吐いたり、犯罪予測AIが「人種差別」をしたり、人材採用AI・与信審査AIが「男女差別」をするなど、AIが「悪さ」をする事例が問題となっています。

『責任あるAI 「AI倫理」戦略ハンドブック』(書影をクリックすると、アマゾンのサイトにジャンプします。紙版はこちら、電子版はこちら。楽天サイトの紙版はこちら、電子版はこちら

例えば2016年には、マイクロソフトのAIボットTayが公開後まもなく人種差別的な暴言を吐くようになってしまったためサービスを停止しました。

2018年には、アマゾンが開発を進めていたAI活用の人材採用システムに性別の中立性が働かない=「男女差別」につながることがわかり、運用をとりやめることになりました。

2019年には、ゴールドマン・サックス社がアップルカードの利用者の信用スコアを算出する際、女性に不当に低いスコアが付けられ、クレジットカード限度額に差が生じていることが問題となり、大きな非難を受けました。

また2020年には、英国の資格・試験統制機関オフクァル(Ofqual:Office of Qualifications and Examinations Regulation)が取り入れたアルゴリズムによる成績予測評価が労働者階級やマイノリティーに属する生徒に不利な評価を下すことが判明し、抗議デモに発展しました。

AIが社会に浸透すればするほど、AIが悪さをした場合の社会的影響は大きくなっており、これを危惧する各国・地域の機関では法規制の動きも活発化しています。

次ページWHOが策定した6つの基本理念
関連記事
トピックボードAD
マーケットの人気記事