有料会員限定

「セラピストAI」が利用者を追い込む重大リスク。人間なら資格剥奪、刑事罰レベルの事案が続発

✎ 1〜 ✎ 40 ✎ 41 ✎ 42 ✎ 43
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
(イメージ写真:タカス/PIXTA)

アメリカ最大の心理学者協会は先月、連邦規制当局に対し、「セラピスト」を装った人工知能(AI)チャットボットによって脆弱な人々が自らや他者を傷つける行動に駆り立てられる可能性があると警告した。そうしたチャットボットは利用者の考えに疑問を投げかけるのではなく、むしろ後押しするようにプログラムされている。

連邦取引委員会(FTC)への発表で、アメリカ心理学会(APA)のCEOアーサー・C・エバンス・ジュニアはcharacter.AI(キャラクターAI)上の「心理学者」に相談した10代の若者2人に関する訴訟を引き合いに出した。このアプリでは、利用者が架空のAIキャラクターを作成したり、他者が作成したキャラクターとチャットしたりできる。

キャラクターAIで起きた事件

うち一方のケースでは、フロリダ州に住む14歳の少年が、資格を持つセラピストを名乗るキャラクターとやり取りした後に自殺した。もう一方のケースでは、テキサス州に住む自閉症の17歳の少年が、心理学者を名乗るチャットボットとやり取りしていた期間中、両親への敵意を強め、暴力的になった。どちらの少年の親も、キャラクターAIに対し訴訟を起こしている。

エバンスは、チャットボットが提供した返答に愕然としたと述べた。エバンスによると、チャットボットは利用者の考えが危険な状態となっても、それに異を唱えるどころか、反対に後押ししていた。人間のセラピストなら、診療免許の剥奪や民事・刑事上の責任につながりかねない返答だ。

次ページはこちら
関連記事
トピックボードAD