AIが「フェイクニュース」を大量に作成、配信!? 5つの行動原則「TRUST」で潜在リスクを防ぐ

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

例えば言語生成AIの研究・開発においては前述のRedditやTwitterなどの投稿文からデータを作ることが多いのですが、この中には偏見・差別的な表現が多く含まれており、またデータの収集方法によっては内容が偏っている(特定の意見に与する発言が多い)ことなどが指摘されています。

こうしたデータに基づいて学習された言語生成AIは当然こういった偏見・差別表現を内包してしまうことになります。

「責任あるAI」実現に向けた行動原則「TRUST」とは?

前回の記事「『暴言を吐くAI』『差別するAI』なぜ生まれるのか?」で、これからのAIは「責任あるAI」であることが求められると述べました。

前述のようなリスクに対しての感度を高めながら「責任あるAI」を実践するにあたって、われわれは5つの行動原則(TRUST)を規定しています。

TRUSTとは、Trustworthy(信用できる)、Reliable(信頼できる)、Understandable(理解できる)、Secure(安全が保たれている)、Teachable(共に学びあう)の5つの頭文字からとっています。順番に説明しましょう。

T=Trustworthy(信用できる)とは、AIが社会の安全かつ健全な発展に貢献するよう設計され、出力が信用に足るものでなければならず、そのためにAI開発者や消費者も含むあらゆるステークホルダーによる多様な視点をAIシステムのデザインに取り入れなければならないということです。

2020年7月に開催された機械学習に関する国際学会ICML(International Conference on Machine Learning)において、初めて「機械学習の参加型アプローチ」に関するカンファレンス、ワークショップが開催されました。これは、AIによって影響を受ける人たちにもAIの設計段階から参画してもらい、その意見を取り入れてAIシステムのデザインを革新していこうという新たな試みで、注目に値するものです。

このような多数のステークホルダーを巻き込んで設計や検証を行うことがAIが内在するリスクを早期発見するうえで重要になります。

次ページ残りの4つの行動原則は?
関連記事
トピックボードAD
マーケットの人気記事