例えば言語生成AIの研究・開発においては前述のRedditやTwitterなどの投稿文からデータを作ることが多いのですが、この中には偏見・差別的な表現が多く含まれており、またデータの収集方法によっては内容が偏っている(特定の意見に与する発言が多い)ことなどが指摘されています。
こうしたデータに基づいて学習された言語生成AIは当然こういった偏見・差別表現を内包してしまうことになります。
「責任あるAI」実現に向けた行動原則「TRUST」とは?
前回の記事「『暴言を吐くAI』『差別するAI』なぜ生まれるのか?」で、これからのAIは「責任あるAI」であることが求められると述べました。
前述のようなリスクに対しての感度を高めながら「責任あるAI」を実践するにあたって、われわれは5つの行動原則(TRUST)を規定しています。
TRUSTとは、Trustworthy(信用できる)、Reliable(信頼できる)、Understandable(理解できる)、Secure(安全が保たれている)、Teachable(共に学びあう)の5つの頭文字からとっています。順番に説明しましょう。
T=Trustworthy(信用できる)とは、AIが社会の安全かつ健全な発展に貢献するよう設計され、出力が信用に足るものでなければならず、そのためにAI開発者や消費者も含むあらゆるステークホルダーによる多様な視点をAIシステムのデザインに取り入れなければならないということです。
2020年7月に開催された機械学習に関する国際学会ICML(International Conference on Machine Learning)において、初めて「機械学習の参加型アプローチ」に関するカンファレンス、ワークショップが開催されました。これは、AIによって影響を受ける人たちにもAIの設計段階から参画してもらい、その意見を取り入れてAIシステムのデザインを革新していこうという新たな試みで、注目に値するものです。
このような多数のステークホルダーを巻き込んで設計や検証を行うことがAIが内在するリスクを早期発見するうえで重要になります。