無知ではすまない「日本のAI活用」に欠けた視点 リクナビ事件で露呈した個人情報保護法の課題
リクナビ事件からいくつかの検討するべき論点が明らかになりました。AIの世界において、マーケティング目的であれば、個人は商品化された存在になり、警察司法目的であれば、個人はリスク評価の指標となります。
AIによる評価は、機械による人間の選別を可能とし、そのプロセスを繰り返すことで、人間を一定の枠にはめ込むことができます。
就職活動であれば、応募者をAIが選定するだけでなく、その選定作業が毎年蓄積することで、同種の採用候補者の再生産を可能とすることができるのです。機械による同種の人間の再生産プロセスは、人類の多様性への脅威になりうることを理解しなければなりません。
個人情報保護法に突きつけられた課題
このほかに、リクナビ事件は、個人情報保護法におけるいくつかの課題を突きつけています。
第1に、プロファイリングの問題です。プロファイリングとは、データの自動処理の一類型ですが、GDPR(EU一般データ保護規則)の規定によれば、「自然人に関する一定の個人の特性を評価する個人データの自動処理の形態」(第4条4項)と定義されています。
具体的には、個人の職務能力、経済状況、健康、個人的選好、興味、信頼度、行動、位置・移動に関する特性を分析・予測するために個人データを利用する場合を想定しています。
プロファイリングはクレジットカードの審査などですでに利用されています。プロファイリングの帰結として、本人の合理的期待に反する不利益がもたらされることも否定できません。GDPRには、プロファイリングを含む自動処理に対して異議申し立ての権利、人間の介入を求める権利が明文化されています。日本の個人情報保護法にはこれに相当する規定がありません。
第2に、アルゴリズムの透明性という問題があります。すなわち、就職活動の内定辞退率スコアがなぜこの点数であるかを説明できるか、という問題です。仮に一定のスコアについてその分析の論理回路を本人に説明できなければ、本人は出されたスコアへの反論すらできない状況に陥ってしまいます。これは、いわゆるブラックボックスです。
第3に、本人の同意です。AI分析に利用される個人データは転々とさまざまな組織を流通するのが一般的です。本人がその流通経路をすべて把握し、そのうえで同意することは非現実的です。プライバシーポリシーへの同意クリックという儀式のみで、本人の合理的期待に反し、プロファイリングに利用されることになると、同意の意義が希薄化してしまいます。そこで、本人の同意は十分な説明を事前に受けたうえで、かつ、いつでも同意を撤回できることを条件に個人データの自動処理が行われるべきです。
無料会員登録はこちら
ログインはこちら