AIが人間の意思決定を操作する「本当の怖さ」 不透明な運営の「チャットGPT」に問われる責任

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
国家間で生成AIの開発競争が繰り広げられる中、はたしてオープンAIが「中立的」と言えるのか、学術界では議論を呼んでいる(写真:Bloomberg)
「Chat(チャット)GPT」をはじめとする生成AI(人工知能)の急激な台頭で、AIの利用に対する社会的不安も高まっている。AIをめぐる人権やプライバシーに詳しい慶應義塾大学大学院法務研究科の山本龍彦教授に、問題の本質を聞いた。

ケンブリッジ・アナリティカ事件の教訓

――AIが人々の認知過程や判断を歪めることに、懸念を示されています。

アルゴリズムやAIは、すでに私たちの意思決定の領域に深く入り込む時代になっている。デジタル化やDXが必要とよく言われるが、それは個人や人間存在そのもののあり方、さらには国家のあり方を根本的に変容させる可能性がある。

スマートフォンが見せる「世界」は、基本的には私たちのデータに基づいてアルゴリズムやAIが創った世界だ。私たちはつねに魔法のかかった「不思議な国」の中にいることを認識し、情報摂取の主体性を取り戻さなければならない。

AIを使った意思決定の操作の問題を最もセンセーショナルな形で世に知らしめたのが、「ケンブリッジ・アナリティカ事件」だ。

選挙コンサルタント会社ケンブリッジ・アナリティカがフェイスブック(現メタ)のデータなどから詳細な心理的プロファイリングを行い、2016年に行われたアメリカ大統領選やEU(欧州連合)の離脱を問うイギリスの国民投票の政治広告に活用していた。同社はそれによって、ドナルド・トランプ陣営やEUの離脱派を支援していたとされる。

次ページ政治的マイクロターゲティングの有効性
関連記事
トピックボードAD
ビジネスの人気記事