
アメリカ最大の心理学者協会は先月、連邦規制当局に対し、「セラピスト」を装った人工知能(AI)チャットボットによって脆弱な人々が自らや他者を傷つける行動に駆り立てられる可能性があると警告した。そうしたチャットボットは利用者の考えに疑問を投げかけるのではなく、むしろ後押しするようにプログラムされている。
連邦取引委員会(FTC)への発表で、アメリカ心理学会(APA)のCEOアーサー・C・エバンス・ジュニアはcharacter.AI(キャラクターAI)上の「心理学者」に相談した10代の若者2人に関する訴訟を引き合いに出した。このアプリでは、利用者が架空のAIキャラクターを作成したり、他者が作成したキャラクターとチャットしたりできる。
キャラクターAIで起きた事件
うち一方のケースでは、フロリダ州に住む14歳の少年が、資格を持つセラピストを名乗るキャラクターとやり取りした後に自殺した。もう一方のケースでは、テキサス州に住む自閉症の17歳の少年が、心理学者を名乗るチャットボットとやり取りしていた期間中、両親への敵意を強め、暴力的になった。どちらの少年の親も、キャラクターAIに対し訴訟を起こしている。
エバンスは、チャットボットが提供した返答に愕然としたと述べた。エバンスによると、チャットボットは利用者の考えが危険な状態となっても、それに異を唱えるどころか、反対に後押ししていた。人間のセラピストなら、診療免許の剥奪や民事・刑事上の責任につながりかねない返答だ。
この記事は有料会員限定です。
(残り 2166文字 です)
【4/30(水)まで】 年額プラン2,000円OFFクーポン 配布中!
詳細はこちらから
東洋経済オンライン有料会員にご登録いただくと、有料会員限定記事を含むすべての記事と、『週刊東洋経済』電子版をお読みいただけます。
- 有料会員限定記事を含むすべての記事が読める
- 『週刊東洋経済』電子版の最新号とバックナンバーが読み放題
- 有料会員限定メールマガジンをお届け
- 各種イベント・セミナーご優待