一方、個人の作業やテレワークのような仕事で使う場面も想定されている。顔の一部を覆うVRグラスでは、既存のビデオ会議への参加が難しかったが、Apple Vision ProではFaceTimeやZoom、WebEx、Teamsといったビデオ会議に参加可能だ。
それを可能にしているのが「Persona」と呼ばれる、自分の3Dモデルだ。機械学習処理で自分を生成し、ビデオ会議の画面に登場させることで、相手にその姿を伝えることができるという。デバイス下部に用意されているカメラによって、身振り、手振りも相手に伝えることで、自然なコミュニケーションを取り持ってくれる。
「見て、つまむ」新しいインターフェース
Appleは新しいカテゴリーのデバイスに参入する際、必ず新しいユーザーインターフェースを提案してきた。Macにはマウス、iPodにはクリックホイール、iPhoneにはマルチタッチ、Apple Watchにはデジタルクラウン、といった具合だ。
Apple Vision Proに対しては、視線とジェスチャー、そして声という3つのユーザーインターフェースを与えた。中でも主要な操作方法となるのが、視線とジェスチャー。これが「見て、つまむ」という動作になる。
この中で最もイメージが湧きにくいのが視線入力だ。内部にハイスピードカメラとLEDリングを配置し、両目の動きをトラッキングする。これによって、使う人は、映像のある箇所に視線を移動させただけで、それが選択され操作可能になる。見ると同時に、指でつまむような動作(英語ではタップ)を用いて操作する。
これまで、ディスプレーと操作するインターフェースは別々に用意されていた。これに比べると、見ることも操作に組み込まれており、より直感的な操作方法を実現することになる。
また、音声入力による文字入力や、バーチャルキーボード、Bluetoothを通じてキーボードやマウスが利用可能だという。
Apple Vision Proのプレゼンテーションで注意深く調整されていた点は、バーチャル世界に閉じこもるような見え方を避けていた点だ。
あくまで、現実空間と完全なバーチャル空間を切り替えられることを前提としており、このデバイスを装着しているからといって、現実空間にいる人とコミュニケーションを取れないわけではない。この点は、いままでのヘッドセット型デバイスの前提には入っていなかった。
無料会員登録はこちら
ログインはこちら