「暴言を吐くAI」「差別するAI」なぜ生まれるのか? AIの暴走を防ぐ「責任あるAI」と「AI倫理」

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

最近では、2021年6月28日、WHOがヘルスケア領域におけるAIとその使用・設計に関して、透明性・説明可能性の確保や説明責任の醸成などを含む6つの基本理念のレポートを発表しました。

WHOが策定した「AIをヘルスケアに利用するための6つの基本理念」は、以下のとおりです。

1:人間の自律性を守ること
2:人間の幸福と安全および公共の利益を促進すること
3:透明性・説明可能性・理解可能性を確保すること
4:レスポンシビリティ(責任)とアカウンタビリティ(説明責任)の醸成
5:インクルージョン(包括性)と公平性の確保
6:レスポンシブで持続可能なAIの推進

ヘルスケア領域では、AIはこれまでの課題を解決する有効な手段として認知や応用が進んでいます。例えば、中低所得国では、十分な医療サービスを受けられる人々とそうでない人々との間のギャップが社会問題となっています。AIを活用することで、すでに普及しているスマホなどを介して医療サービスへのアクセスが容易となれば、そういったギャップを縮小できる可能性があります。

例えば、イギリスのベンチャー「babylon/babel」がアフリカのルワンダで、スマホからAIチャットボットにアクセスしての遠隔診断/AI診断サービスをスタートさせています

そのほかにもAIを活用した公衆衛生監視の改善、医師や医療従事者による患者への複雑なケアをより適切に行えるようになるなど、そのメリットは多岐にわたります。

世界中の企業・期関が「AI原則」を発表

一方、WHOに任命された国際的専門家による2年間の協議の集大成であるこのレポートでは、AIによるこうしたメリットを過大評価しすぎること、すなわち「技術的楽観主義(techno-optimism)」に対して警鐘を鳴らしています。

ヘルスケア領域のAIは、主に高所得国の個人から収集されたデータで訓練される傾向があり、中低所得国の個人にとってはうまく機能しない可能性があるという指摘もあるのです。
したがって、ヘルスケアにおけるAIシステムは、社会経済的観点および医療環境の多様性を考慮し、それらを反映するように注意深く設計する必要があるのです。

WHOによる基本理念の策定はほんの一例です。現在、世界中の企業・機関においてAIの使用・設計について理念・原則の策定が進んでいます。スタンフォード大学人間中心AI研究所(The Stanford Institute for Human-Centered Artificial Intelligence)の調査によると、2015年から2020年にかけて117件ものAI原則が発表されています。
The 2021 AI Index Report )

では、なぜこのような動きが進んでいるのでしょうか? それはAIが社会にプラスの影響をもたらすだけでなく、マイナスの影響をもたらす場合があることがわかってきたからなのです。

次ページAI技術の普及と加速するAI法規制の動き
関連記事
トピックボードAD
マーケットの人気記事