AIが人間の意思決定を操作する「本当の怖さ」 不透明な運営の「チャットGPT」に問われる責任

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ここで言うプロファイリングとは、ウェブの閲覧履歴といった個人データに基づき、AIを使って個人の趣味嗜好・精神状態・政治的な信条・犯罪傾向など、あらゆる私的側面を自動的に予測・分析することを指す。ケンブリッジ・アナリティカの場合は、こうしたプロファイリングで、ユーザーを「神経症で極端に自意識過剰」「陰謀論に傾きやすい」「衝動的怒りに流される」など細かく分類し、それに応じて政治広告を出し分けていた。

このような心理的プロファイリングを用いた政治的マイクロターゲティングは、選挙運動としてとても有効だった。フェイクニュースにだまされやすい人にそれをリコメンド(推奨)すれば、その人の感情や意思決定を容易に操作できるからだ。

プロファイリングの問題は日本でも

山本龍彦(やまもと・たつひこ)/慶應義塾大学大学院法務研究科教授。慶應義塾大学グローバルリサーチインスティテュート(KGRI) 副所長。1976年生まれ。慶應義塾大学法学研究科博士課程単位取得退学。博士(法学)。総務省「プラットフォームサービスに関する検討会」委員、総務省「ICT活用のためのリテラシー向上に関する検討会」座長なども務める。主な著書に『デジタル空間とどう向き合うか』(日経BP、共著)、『AI と憲法』(日本経済新聞出版社)など(写真:本人提供)

AIで個人の認知傾向を把握し、この傾向を突けば、「マインド・ハッキング」が可能であることがわかってしまった。この事件を契機に、プロファイリングを用いた政治的マイクロターゲティングが、プライバシーのみならず民主主義にも多大な影響を与えうるということが大きく知れ渡ることになった。近年では、AIを使った認知の操作は、情報戦ないし認知戦の重要な一部として安全保障にもかかわるものと理解されている。

――日本でもプロファイリングの問題は、起きていないのでしょうか。

2019年の「リクナビ事件」が有名だ。就職活動のプラットフォーム「リクナビ」を運営するリクルートキャリアが、学生のウェブ閲覧履歴などからAIを用いて内定辞退率を予測し、これを企業に販売していた。国内企業から採用をもらっても外資系に逃げてしまうような学生がいるので、そういった学生がどんなウェブをみていたかをAIに学習させて内定辞退の可能性を予測するアルゴリズムを組んでいたのだ。

内定辞退率を予測するためのプロファイリングは、学生を採用する企業には有用だが、応募する側の学生にとってはショッキングだっただろう。まさか自分のウェブ閲覧履歴が内定辞退率の予測に使われ、内定が取り消される可能性があったとは思わなかったからだ。

次ページ大規模言語モデル「GPT-4」に見える課題
関連記事
トピックボードAD
ビジネスの人気記事