AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている。なぜ、今、「AI倫理」が問われるのか。『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、AIの暴走を防ぎ、トラブルが発生したときにも迅速に対応できる備えとしての「責任あるAI」について解説する。
AIが「悪さ」をする事例が
企業が成長を続け、競争優位性を保ち続けるためにAI(人工知能)の活用が不可欠となっています。一方で、AIチャットボットが「暴言」を吐いたり、犯罪予測AIが「人種差別」をしたり、人材採用AI・与信審査AIが「男女差別」をするなど、AIが「悪さ」をする事例が問題となっています。
例えば2016年には、マイクロソフトのAIボットTayが公開後まもなく人種差別的な暴言を吐くようになってしまったためサービスを停止しました。
2018年には、アマゾンが開発を進めていたAI活用の人材採用システムに性別の中立性が働かない=「男女差別」につながることがわかり、運用をとりやめることになりました。
2019年には、ゴールドマン・サックス社がアップルカードの利用者の信用スコアを算出する際、女性に不当に低いスコアが付けられ、クレジットカード限度額に差が生じていることが問題となり、大きな非難を受けました。
また2020年には、英国の資格・試験統制機関オフクァル(Ofqual:Office of Qualifications and Examinations Regulation)が取り入れたアルゴリズムによる成績予測評価が労働者階級やマイノリティーに属する生徒に不利な評価を下すことが判明し、抗議デモに発展しました。
AIが社会に浸透すればするほど、AIが悪さをした場合の社会的影響は大きくなっており、これを危惧する各国・地域の機関では法規制の動きも活発化しています。