ChatGPTが「愛されるロボット」になるための秘訣 弱いロボット生みの親に聞くAIと人間の関係性

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

前述の配膳ロボットは、深圳のベンチャーが作って日本のファミレスに普及させたが、日本人にはできなかった発想だったと思う。日本人は几帳面だし、ちゃんとトレーを持って配膳するところまでやらないとサービスロボットとしては失格と考えてしまうのではないか。

岡田美智男(おかだ・みちお)/1987年東北大学大学院工学研究科博士後期課程修了。工学博士。NTT基礎研究所情報科学研究部、国際電気通信基礎技術研究所(ATR)などを経て、2006年より豊橋技術科学大学情報・知能工学系教授(記者撮影)

例えば、トヨタ自動車とかつて、自動運転システムのインタフェースについて研究をしていたことがある。

そのとき、「NAMIDA」という弱いロボットを車のダッシュボードにつけて、自動運転システムがどういう状況で何を判断しているかドライバー側に伝わるようにした。誤った判断をする可能性がある箇所ではAIが行動判断せず、むしろ弱音を吐くことで、人が運転するよう促す形にしてはと提案したが、受け入れられなかった。

AIの最大の欠点は、自分の弱いところを把握できず、それを自ら説明できない部分にある。(正解である)確率が低いなら、答えを無理に引っ張りださなくても、自分の弱いところを見せればいいのではないか。独りよがりになって強がっていると、信頼性を失ってしまう。

弱いロボットは、他者からの支えを前提とした関係を基に作られている。すると支えているつもりが支えられている、というような相互関係が生まれてくる。

ChatGPTに“距離”を感じてしまう理由

――AIの領域では、対話型のChatGPTが大きな注目を集めています。

僕らも1990年代から音声言語システムという、「語りかけると応答してくれるシステムの研究」をずっと行ってきたが、当時は「AI 冬の時代」と呼ばれていて、大変な困難を伴っていた。それが「普通の人はこういう語りをすることが多い」ということを徹底して学習させれば、ここまでうまくいっちゃうんだなと感じている。

ただ、(ChatGPTは)自分の意思や目的を持って話しているわけではなく、外の入力に対しての応答という枠組みにすぎない。語りかけて、それを受けて反応し返すという「行為-知覚循環」はまだこれからだ。

—--行為-知覚循環とは?

僕らは行為する(動く)ために知覚するが、知覚するためには行為を繰り出す必要がある。

例えば僕らの身体は外から見ると自己完結しているように見えるが、内側から見ると自分の身体にもかかわらず自分の顔が見えない。そこで相手の表情をみて話すと、相手の顔の中に自分の表情が少し写し込まれるので、それを手掛かりに自分がどんな状況で話しているかを判断している。

言葉にしても、「こんにちは」と言って相手が「こんにちは」と返してくれないと、言葉の意味はまだ見出せない。相手がリアクションしてくれて初めて、挨拶の意味を持つ。そういう経験を生かしながら、言葉の意味を自分の中に入れていく。

一方でChatGPTは、言葉の意味を自己完結したものとして放り出している(話し相手の存在を予定していない)。それを僕らは一方的に受け取る必要があり、場合によっては置いてきぼりにされる。すると優秀だが、どうしても距離を感じてしまう。

次ページ人間とのギャップが生まれる
関連記事
トピックボードAD
ビジネスの人気記事