無知ではすまない「日本のAI活用」に欠けた視点 リクナビ事件で露呈した個人情報保護法の課題
AIの利用をめぐり、「説明可能性」は、あえて「透明性」や「説明責任」とは異なる概念を想定している点に注目する必要があります。
ここでの「説明可能性」は、データの自動処理が決定を下したアルゴリズムの論理回路を人間、少なくともアルゴリズムを監査できる専門的知識を備えた人間に理解可能な有意義な情報を提供することと理解されています。この「説明可能性」は、必ずしもAIが下した決定を人間がつねに覆すことを意味するものではなく、その決定に至る理由を人間に理解できるように説明できるかどうかということが要点です。
これに対し、「透明性」はデータの自動処理の対象や範囲をデータ主体に明らかにすることであり、また「説明責任」は、自動処理の論理回路と決定についてデータ主体に対し責任を負うことです。
個人データの自動処理が、人間に対し説明可能であり、なおかつ透明性を確保し、説明責任を負うことができる点において、人間介入の権利が、データ環境における人間中心の原則を支えているのです。
AIは正義の自動処理ができない
交友関係などを含む信用スコアが中国にみられますが、このようなスコア化については、人間関係を点数化する客観的な指標が存在するか、そしてスコアをつける採点者がその指標を利用者に説明し責任を負うことができるか、という疑問が残ります。
データの自動処理はできても、正義の自動処理ができないのがAIです。むしろ正義や公平性という概念自体が機械の学習能力によっても調達することができないものです。「人間介入の権利」は、AIが進化するにつれて、逆説的ではあるものの、よりいっそうその重要性が増すものと考える必要があります。
なお、人間介入の権利による説明可能性をAIに対して求めることは、営業秘密や知的財産権から拒むことができるかどうかという問題があります。現実に、2019年12月に公布された日米デジタル貿易協定では、アルゴリズムへのアクセス要求を禁止する条項があります(第17条1項)。
もっとも、GDPRのガイドラインにおいて明確にされているとおり、営業秘密や知的財産権が口実となり個人データの自動処理に関する説明可能性が大きく縮減することになれば、人間介入の権利が損なわれかねません。
営業秘密か人間介入の権利かという二者択一の問題ではなく、両者を適正に調整しつつ、データ環境における人間中心の原則を構築していくことが信頼あるアルゴリズムへとつながっていくでしょう。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら