ChatGPTが「愛されるロボット」になるための秘訣 弱いロボット生みの親に聞くAIと人間の関係性

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

人間は、弱いところを補って強いところを引き出し合うというはさみとの関係から、道具をもっと高機能にしようと機械の自律化を目指してきた。すると「何かをするロボット」と「何かをしてもらう人」という関係で、お互いの役割の間に距離が生まれてしまった。そうなると共感性が失われ、相手に対して要求水準をどんどん高めてしまう。

何を間違ったかと言うと、前述の身体は自己完結しているという錯覚だ。ロボットを作るうえでも自己完結したものを求めると、本来人間の持つ不完全性とのギャップが生まれてしまう。

――このギャップは、どのようにして現れるのでしょうか。

ロボットの表情を人間に近づければ近づけるほど、人間との差異が見えてしまうことがあって、これをよく「不気味の谷現象」と言う。

これは知性の部分にも当てはまる気がする。いろんなことを知っているようで本当に深いところまで知っているのか、うまく人の振る舞い方を模倣しているだけなんじゃないか、と感じてしまうこともあると思う。

一方で自分の言葉を持ち始めたり、行動の意味を理解したり、身体ベースのやりとりができるようになると、“谷”を超えられるかもしれない。これは赤ちゃんの発達と同じだ。

なぜ今のロボットにそれができないかと言うと、普通のデータセットは何億という膨大なやりとりを蓄積しているが、それに対する行為と知覚のデータ数が足りなすぎるからだ。僕ら人間だって、行動をして知覚するという循環は、一日数千回にとどまってしまう。

逆に言えば、同じようなロボットが全世界で動いていて、(人間の生活環境の)行為と知覚を集めることができれば、すごいものが作れるのではないか。

コミュニケーションは言葉の連鎖が大切

――今のChatGPTには、ドラえもんのような愛着が湧かないですね。

今のGPTは正解を言いすぎることがある。コミュニケーションは言葉を連鎖させることが重要で、SNSでは1つひとつが不完全だから言葉を補って連鎖が生まれる。それが誰かが正解を言ったとたん、雑談が失速する。

また、僕らは相手の知っていることを「あえて言わない」という側面もあり、あまり答えを言うと「そんなの知ってるわ」とムカついてしまう。ほんのちょっと言葉足らずのほうが、こちらとの関わり合いをうまく引き出してくれる。

コミュニケーションには共通基盤が重要で、相手のバックグラウンドも知らないで話していても、(対話を)重ねると基盤ができあがる。ただChatGPTとは「一緒に共通基盤を作る」という合意が取れないので、カチンとくるかもしれない。

次ページ「謙虚なChatGPT」を構想中
関連記事
トピックボードAD
ビジネスの人気記事