レッシグ教授が考える「AIと中国」本当の脅威 「サイバー法の権威」民主主義に迫る危機を語る
ある日突然、AIがあなたの保険加入を排除する?
――今後、AIの利用がどんどん拡大していくと、個人データ利用に関するプライバシーなどの問題はもっと厄介になりそうです。
こんな研究があるのをご存じですか。書いたものをAI技術に通すだけで、書き手の認知機能低下を判断できるという驚くべきものです。その人の表面を見ただけではわからなくても、AIなら書いたものの言葉の微妙な変化を観察して認知症の有無を特定できるそうです。
こうなると、たとえば、私の昔と最近の本を勝手にAIでスキャンして私が認知症かどうかを特定することを誰も止められません。保険会社はAIの推定結果を基に私の保険加入を拒否するでしょう。しかし、私の考えではこれは個人情報です。誰かが個人データを利用してAIで推論を行い、その推論によって個人が不利になるべきではありません。そうしたものは個人データ利用と同様に規制されるべきです。
もちろん公衆衛生政策の目的として、ある集団における認知症の割合を推定するといったことなら問題ないと思います。
――想像を超えたことが将来の大問題になる可能性がありますね。私たちの社会は将来、AIをコントロールできるのでしょうか。あなたが話した「個人データ利用に関する規制」の議論をそのままAIに適用すればいいのでしょうか。
AIについては異なった課題もあると思います。私が最も重要だと考える課題は透明性の確保です。著書『CODE』では、ソフトウェアのソースコードは(人々の振る舞いを左右するという意味で)法律や規則と同じだと論じましたが、AIもそうです。
同書ではオープンソースと商業用ソフトの違いを指摘しました。オープンソースなら、誰でもプログラムを読むことができるため、そのプログラムの中で人々の振る舞いがどのように規制されているかを理解することができます。しかし、ソースコードが秘匿される商業用ソフトではわかりません。
AIでは、この種の問題が桁違いの大きさで浮上しています。ブラックボックス化したAIでは文字どおり、結果に至るまでのプロセスが誰にもわかりません。AIでは大量のルールを設定し、大量のデータを投入するだけで、人々の振る舞いへの規制が始まります。それはデータと設定された目的関数に基づいており、どのように(人々の振る舞いを決める)区別や識別が行われているのかはわからないのです。
現在では、人間がプロセスを解釈できるAIや、どんな価値観を推進しているかを読み取ることができるAIの開発も始まっています。そのような透明性を確保し、自由な社会の価値観に照らしてテクノロジーが何をしているのかをテストできることは最低限必要です。これはAIにおける特有の課題と言えます。
無料会員登録はこちら
ログインはこちら