レッシグ教授が考える「AIと中国」本当の脅威 「サイバー法の権威」民主主義に迫る危機を語る

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
SNSなどプラットフォーマーによる個人データ利用やプライバシーの問題は、AIが拡大すればさらに深刻化しかねない(写真:本人提供)
アメリカの著名法学者であるローレンス・レッシグ・ハーバード大学教授に聞くインタビューの後編。
4月7日に配信したインタビュー前編(「SNSがトランプ危機を引き起こしたカラクリ」)でレッシグ教授は、SNS(交流サイト)などプラットフォーマーの広告のビジネスモデルがいかに人々を分断させ、「トランプ危機」をもたらしたのかを説明。その対応策として政府が、個人データの利用について適切なものと不適切なもの、その中間領域としてユーザーの同意を求めるものを事前に区別して規制することを提案した。
インタビュー後編では、ますます台頭するAI(人工知能)と中国の将来について話を聞いた。

ある日突然、AIがあなたの保険加入を排除する?

――今後、AIの利用がどんどん拡大していくと、個人データ利用に関するプライバシーなどの問題はもっと厄介になりそうです。

こんな研究があるのをご存じですか。書いたものをAI技術に通すだけで、書き手の認知機能低下を判断できるという驚くべきものです。その人の表面を見ただけではわからなくても、AIなら書いたものの言葉の微妙な変化を観察して認知症の有無を特定できるそうです。

こうなると、たとえば、私の昔と最近の本を勝手にAIでスキャンして私が認知症かどうかを特定することを誰も止められません。保険会社はAIの推定結果を基に私の保険加入を拒否するでしょう。しかし、私の考えではこれは個人情報です。誰かが個人データを利用してAIで推論を行い、その推論によって個人が不利になるべきではありません。そうしたものは個人データ利用と同様に規制されるべきです。

もちろん公衆衛生政策の目的として、ある集団における認知症の割合を推定するといったことなら問題ないと思います。

――想像を超えたことが将来の大問題になる可能性がありますね。私たちの社会は将来、AIをコントロールできるのでしょうか。あなたが話した「個人データ利用に関する規制」の議論をそのままAIに適用すればいいのでしょうか。

AIについては異なった課題もあると思います。私が最も重要だと考える課題は透明性の確保です。著書『CODE』では、ソフトウェアのソースコードは(人々の振る舞いを左右するという意味で)法律や規則と同じだと論じましたが、AIもそうです。

同書ではオープンソースと商業用ソフトの違いを指摘しました。オープンソースなら、誰でもプログラムを読むことができるため、そのプログラムの中で人々の振る舞いがどのように規制されているかを理解することができます。しかし、ソースコードが秘匿される商業用ソフトではわかりません。

AIでは、この種の問題が桁違いの大きさで浮上しています。ブラックボックス化したAIでは文字どおり、結果に至るまでのプロセスが誰にもわかりません。AIでは大量のルールを設定し、大量のデータを投入するだけで、人々の振る舞いへの規制が始まります。それはデータと設定された目的関数に基づいており、どのように(人々の振る舞いを決める)区別や識別が行われているのかはわからないのです。

現在では、人間がプロセスを解釈できるAIや、どんな価値観を推進しているかを読み取ることができるAIの開発も始まっています。そのような透明性を確保し、自由な社会の価値観に照らしてテクノロジーが何をしているのかをテストできることは最低限必要です。これはAIにおける特有の課題と言えます。

次ページAIと企業を規制する難しさ
関連記事
トピックボードAD
政治・経済の人気記事