このようにAIが人間の感情を理解すると同時に自分でも感情を表現できるようになることは、専門家の間で(AIの)「擬人化(anthropomorphization)」と呼ばれている。
こうした傾向には実は一長一短がある。
擬人化の長所は前出のデモ動画で紹介したような、ユーザーの心理状態に寄り添ったきめ細かいAIサービスが可能になること。逆に短所は、ユーザーがAIを本物の人間と錯覚して気を遣ったり、気味の悪い思いをしたり、最悪の場合はAIに騙されたり悪事を唆(そそのか)されたりすることだ。
実際、ベルギーやイギリスでは擬人化されたAIと恋に落ちたユーザー(いずれも男性)がAIにそそのかされて自殺したり、(生前の)エリザベス女王の暗殺を企てて(女王の週末の住居)ウィンザー城の敷地に侵入したりするなど、嘘のような本当の事件がすでに起きている。
このためグーグルやマイクロソフトなどの巨大IT企業は、これまで「AIは(どれほど巧妙に作られていても)所詮ツールに過ぎず、決して人間ではない」と強調するなど擬人化には意図的に距離を置いてきた。
AIの擬人化は危険だが避けて通れない課題
しかしOpenAIは今回そうした前例に反して、あえてAIを人間に近づける方向に舵を切ったと見ることができる。
またメタも最近、フェイスブックやインスタグラムなど傘下のソーシャルメディア上で人気タレントやスポーツ選手などに似せたAIキャラクターを提供するなど、擬人化のトレンドは徐々に広がりつつある。
こうした擬人化は、OpenAIが最終目標とする「AGI(Artificial General Intelligence:人工汎用知能)」を実現する上で避けて通れない道かもしれない。
AGIの厳密な定義は存在しないが、一般には「人類を凌ぐ高度な知能を備えたAI」と捉えられている。「人類をしのぐ」とは、つまり「神に近づく」ということになるが、そんなスーパーAIが「単なるツール」という位置付けでは済まないだろう。
やはり相応の人格形成は必要となるであろうが、それは(前掲のいくつかの事件などを防止するため)拙速にではなく徐々に慎重に成し遂げられる必要がある。今回の「GPT-4o」に見られる擬人化はそこに向けた第一歩ということになりそうだ。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら