私たちが「孤独を埋めてくれるAI」にのめり込む日 メンタル不調に寄り添う「AIセラピスト」も登場
日本の場合、対話型のAIチャットボットは、主にメンタルヘルスの確保増進や認知能力の向上といった文脈で使用されている。
例えば、「emol(エモル)」は、感情を記録してAIチャットボットと会話するアプリだ。気軽にAIに悩みなどを打ち明けることで、自身の感情と向き合うことを目的としており、カウンセラーや産業医などに近い機能を担っている。
「SELF(セルフ)」も、同様にチャットボットとの会話によって、メンタルケアなどを行うアプリである。選択方式での回答しかできないが、相談に応じる形になっている。
アメリカでもこのようなアプリの利用は拡大している。日本においてはまだ少数にとどまるが、海外では国の承認を得た精神疾患関連の治療アプリが多数あり、ゆくゆくは「デジタル治療」が一般化していくかもしれない。
これらのチャットボットの魅力を一言でいえば、相手が「人」ではないから積極的に自己開示ができるところにある。
機械を前にすると、人は本当のことを話したくなる
臨床心理学者のシェリー・タークルは、現在のチャットボットの原型ともいえる1970年代のコンピュータ・プログラム「ELIZA(イライザ)」と学生たちのコミュニケーションを振り返り、「教え子たちは、そのプログラムは何も知らないし、何も理解していないことを知っていたが」、「うわさ話を吹聴する心配のない機械を前にすると、人は本当のことを話したくなる」と指摘した(『つながっているのに孤独 人生を豊かにするはずのインターネットの正体』渡会圭子訳、ダイヤモンド社)。
私は初歩的なイライザのプログラムにおずおずと文章を打ち込む何百人もの人を観察した。たいていの会話は「調子はどう?」とか「ハロー」から始まる。しかし4、5回、言葉のやりとりをすると、多くの人が「彼女にふられた」とか、「有機化学の単位を落としそうで心配だ」とか、あるいは「妹が死んだ」といったことを書き始めるのだった。(同上)
さまざまな人々がAIチャットボットによって癒やされ、救われている側面がある。けれども、その一方で懸念する要素も多くの識者から出されている。
無料会員登録はこちら
ログインはこちら