AIが人間の意思決定を操作する「本当の怖さ」 不透明な運営の「チャットGPT」に問われる責任
ここで言うプロファイリングとは、ウェブの閲覧履歴といった個人データに基づき、AIを使って個人の趣味嗜好・精神状態・政治的な信条・犯罪傾向など、あらゆる私的側面を自動的に予測・分析することを指す。ケンブリッジ・アナリティカの場合は、こうしたプロファイリングで、ユーザーを「神経症で極端に自意識過剰」「陰謀論に傾きやすい」「衝動的怒りに流される」など細かく分類し、それに応じて政治広告を出し分けていた。
このような心理的プロファイリングを用いた政治的マイクロターゲティングは、選挙運動としてとても有効だった。フェイクニュースにだまされやすい人にそれをリコメンド(推奨)すれば、その人の感情や意思決定を容易に操作できるからだ。
プロファイリングの問題は日本でも
AIで個人の認知傾向を把握し、この傾向を突けば、「マインド・ハッキング」が可能であることがわかってしまった。この事件を契機に、プロファイリングを用いた政治的マイクロターゲティングが、プライバシーのみならず民主主義にも多大な影響を与えうるということが大きく知れ渡ることになった。近年では、AIを使った認知の操作は、情報戦ないし認知戦の重要な一部として安全保障にもかかわるものと理解されている。
――日本でもプロファイリングの問題は、起きていないのでしょうか。
2019年の「リクナビ事件」が有名だ。就職活動のプラットフォーム「リクナビ」を運営するリクルートキャリアが、学生のウェブ閲覧履歴などからAIを用いて内定辞退率を予測し、これを企業に販売していた。国内企業から採用をもらっても外資系に逃げてしまうような学生がいるので、そういった学生がどんなウェブをみていたかをAIに学習させて内定辞退の可能性を予測するアルゴリズムを組んでいたのだ。
内定辞退率を予測するためのプロファイリングは、学生を採用する企業には有用だが、応募する側の学生にとってはショッキングだっただろう。まさか自分のウェブ閲覧履歴が内定辞退率の予測に使われ、内定が取り消される可能性があったとは思わなかったからだ。
無料会員登録はこちら
ログインはこちら