有料会員限定

生成AIの「共感力」はなぜ人類の脅威になるのか/SNSで起きた「社会の分断」の加速が一段と進みかねないビジネスモデルのカラクリとは?

✎ 1〜 ✎ 317 ✎ 318 ✎ 319 ✎ 320
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
ラトビアのリガで、DeepSeek、ChatGPT、Google Geminiの人工知能(AI)モバイルアプリが発表された
(写真:Andrey Rudakov/Bloomberg)

爆発的に普及する生成AI(人工知能)が社会問題を引き起こしている。筆頭格のチャットGPTは8月26日、16歳の少年を自殺に追い込んだとして米カリフォルニア州で訴えられた。チャットGPTとのやり取りが自殺願望のある少年の背中を押したという。2023年には欧州でも成人男性がAIとの対話を重ねた末に自殺したと伝えられた。

東洋経済のコラムニストが、気になるニュースの真相を解説する。【火曜日更新】

雇用への影響や誤情報の拡散などAIをめぐる懸念は多い。そうした中で見落とされがちなのが「共感力」の負の側面だ。米スタンフォード大学の調べでは生成AIの利用者の約9割がAIとの対話を人間らしいと感じ、孤独感が強い人ほど利用度が高いという。また米国の学生の45%が健康や悩みの相談にチャットGPTを使うとの調査結果もある。人間同士の交流の一部はすでにAIに代替されている。

注意すべきはビジネスモデルの力学だ。多くのAIプラットフォーマーはサブスクリプション(利用課金)を主たる収入とし、利用時間と関与度の最大化を目標に据える。呼びかけ、相づちや称賛、寂しさへの即応は共感力であると同時に収益力でもある。SNSのアテンションエコノミー(関心や注目の高さで収益を最大化)の構造と似ているが、拡散よりも滞在時間が目的化する点で異なる。

人間関係の代替機能も

次ページはこちら
関連記事
トピックボードAD