また、本法案の非常に大きな特徴は、罰則規定まで定めている点です。違反すれば最大で3000万ユーロ(約39億円)、または全世界での売上高の6%の罰金を科される可能性があるとされています。
規制の動きは北米でも連邦取引委員会(FTC)が摘発に動き出すなど活発になっており、グローバルでサービス展開している企業にはそれら各国・地域の法整備・規制の状況もモニタリングしていく必要があります。
ベースとなるのは「人間中心」のデザイン
こうした動きの中でAIをビジネスとして活用・展開していくためには、AIが公正であること、透明性を有していることの担保が非常に重要になります。
そこでコアになる概念が「責任あるAI」です。「責任あるAI」とは、顧客や社会に対してAIの公平性・透明性を担保する方法論のことで、その考え方のベースにあるのは「人間中心」のデザインです。機械任せにするのではなく、人間が意思決定の中心となってAIの研究・開発・評価・展開を行うということが肝要です。
これは近年、人間参加型(Human-in-the-Loop)と呼ばれる設計思想にも相通ずるものです。
AI開発は、データの収集から訓練、評価・検証、フィードバックによる改善という流れをたどりますが、それらの活動がループとなり、データ収集~改善のサイクルが回り続けることが理想的とされています。このループの中に人間(Human)を介在させることによって、AIの判断とその制御を人間の手で運用していくという思想です。
人間がAIに頼る場面が多くなるからこそ、人間の判断とHuman-in-the-LoopによるAI開発がますます重要になっていくと考えられます。こうすることで企業はAIの持つリスクを正確に理解できるようになり、かつAIが持つ潜在的リスクへの対策を行うことでAIへの「信用」が生まれ、その「信用」が形成されて初めて人間はAIを「信頼」できるようになるのです。
この「信用」と「信頼」こそが、今後AIを自社のビジネスに応用・拡大利用するための必須条件になります。
「責任あるAI」の検討段階を含めて最初から適切な手法・体制を導入している企業・組織は、自信を持ってAIビジネスを拡張・拡大することができます。アクセンチュアの調査によれば、責任あるAIについての対策を講じている企業とそうでない企業と比較した場合、投資収益率で実に約3倍もの差があることがわかっています。今後AIに関連する企業・組織の社会的責任はますます大きくなってくるので、AIに混入しうる潜在的リスクを正しく理解し、「責任あるAI」の実現に向けてしっかり対応できているかどうかが、企業・組織の収益性をも左右するのです。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら