Google、Android XRで拡張現実の境界を超える AIとXR、ヘッドセットと眼鏡が開く新たな可能性
しかし、Googleはこれら2つのプロジェクトで培われた技術を無駄にはせず、ここ数年で急激な進歩を遂げたAI技術と融合させることで、再びヘッドセット製品に取り組んでいる。
Geminiを融合したAndroid XR
Android XRヘッドセットを装着したユーザーの視界には、前面カメラからのパススルー映像で目の前の現実世界が映し出され、そこにAndroidアプリが浮かぶように表示する(見た感じは、アップルのApple Vision Pro使用時とよく似ている)。これらのアプリはジェスチャー操作やGeminiを介した音声操作によって、アプリのウィンドウを移動したり、視界の隅に最小化したり、画面上のテキストのドラッグ・アンド・ドロップ操作などを行える。アプリの上部にはWindowsやmacOSのようにヘッダーバーがあり、画面の下部に操作ボタンが配置される。
Android XRのGeminiは、ユーザーがいま見ている視界のなかにあるものや、ユーザーにいま聞こえているものを認識することで、それに応じたユーザーのジェスチャーと音声コマンドの認識もしやすくしている。そのため、アプリの操作やAIとの対話における誤りも少なくなっているようだ。
GoogleはAndroid XRの発表に合わせて、Google フォト、Google TV、YouTubeといった自社アプリのAndroid XR対応版の動作を示した一連の動画を公開した。その様子からは、ヘッドセットでアプリを使うときにどのような感覚になるかを知ることができる。
たとえば、Googleフォトアプリは、ウィンドウ内のUI配置などはタブレット版に準じているが、「Immersive(没入感)」と書かれたボタンを押すと拡大表示した写真や動画の端がフェード処理されてよりふんわりと浮かんでいるような印象になる。別のボタンでカルーセル表示にすれば、多数並んだ写真や動画を左右にめくるようにして目的のものを探し出せる。
Immersive表示はヘッドセットやスマートグラスならではの表示方法であり、他にもGoogle マップやChromeブラウザーのAndroid XR対応版でも使える。
無料会員登録はこちら
ログインはこちら