ソニーの開発責任者が語る新生アイボの未来 家電製品との連携は?海外展開は?
――OLEDの眼を搭載していますが、このアニメーションも表情を豊かにしていますね。まるで語りかけるような動きで、この部分がカタログスペックからはわからない大きな進化点という印象を持ちました。
モーションやアニメーションは、メカやエレクトロニクス、ソフトウエアのエンジニアがプログラムすると、どうしても堅苦しくなるものです。その点、今回のaiboはオールソニーで開発に挑んできましたから、SIE(ソニー・インタラクティブエンタテインメント、松井氏もプロジェクトを率いているAIロボティクスビジネスグループ長の川西泉氏もSIEのコアメンバーだった)でゲーム開発に長けたモーションデザインチーム専任で当たっています。OLEDの眼もモーションとセットでデザインをして“ドギーランゲージ”、すなわち犬が何かを周囲に伝えようとするときの仕草を表現するようにしました。
――一方で“生命感がありすぎるのではないか”“中途半端に生命感があるのは気色悪さにつながる”といった指摘もありますね。が、直接、製品を見るとまったく感じない。ロボット工学者の森政弘博士が提唱した“不気味の谷”現象は、プレイステーションの3Dゲームでも度々話題になってきましたが、どう乗り越えましたか。
社内で“不気味の谷”という言葉は出ていませんでしたが、さまざまな議論があったことは間違いありません。まずペットとして愛らしく感じるロボットにしなければなりません。たとえばアクチュエータとモーターが“ガシャガシャ”していても、見た目が“いかにもロボット”なデザインならば両者はうまくフィットします。
しかし現在のような生命感あふれる、表情豊かなデザインにしようと決めたことで、その見た目から不自然さを感じないようなスムースな動き、静かさを実現しようとエンジニアの目線がそろいました。このデザインにフィットするロボットをということで、同じ目標に向かって全員が進めたと思っています。
もちろん、これで終わりではないので、プラットフォームとしてaiboのメカ構造を固定したうえで、継続的にモーションの追加や改良を続け、ドギーランゲージのボキャブラリーを増やしていきます。
かわいがってくれる人にはなつく
――センサーやAIの技術は、先代AIBOの時代からは飛躍的に進化しています。具体的にどのような実装になっていますか。
aiboは状況を理解したうえで自身で行動を選択します。状況を理解するうえでは鼻先にあるカメラで人物を認識・区別し、各所に配置されているタッチセンサーを通じて、どんな人が自分に触れて、どんな行動を取っているかを学習します。鼻先にはToFセンサーという距離を測るセンサーが内蔵されており、激突したり人にぶつかったりということはありません。
接触が多く、かわいがってくれる人にはなついていきます。背中のタッチセンサーだけは加速度センサーが組み合わされているので、たとえば“静かにしなさい”と言いながら背中をたたくと、自分がしかられていることを認識、これを繰り返し、蓄積していくことで“しつけ”ができるようプログラムされています。
またSLAM(Simultaneous Localization and Mapping)カメラという、お尻に上方向を向けて搭載しているカメラがあります。名称のとおり、場所、位置、動きを同時に認識するためのカメラで、部屋の形状や広さを把握し、少しずつ行動範囲を広げていきます。友達の家に行くと、違う部屋だと理解して状況を把握するまでは行動範囲が狭まりますが、また元の部屋に連れて行くと“いつもの部屋”だと認識して行動範囲が広がります。
無料会員登録はこちら
ログインはこちら