普通のメガネで翻訳・ナビ、AIと会話しながら検索できるように。Google I/O 2025で発表された未来の日常生活

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
Android XR搭載デバイスとして最初に市場に出る「Project Moohan(仮称)」(筆者撮影)

Android XRは、1つのプラットフォームで複数の機器を開発できる。Project MoohanのようなApple Vision Pro対抗といえる製品を作ることもできれば、基調講演で発表されたスマートグラスのように、スマホ連携を前提として「情報を見る」ような機器を作ることもできる。

スマートグラス型のプロトタイプを体験する筆者。右目に四角く見えているのはディスプレイ部(筆者撮影)

Geminiが組み込まれ、自然な言葉で「会話」

GoogleはAndroid XRを「Gemini登場以降に提案される初めてのプラットフォーム」と位置付けている。それはどういうことかといえば、ユーザーインターフェースにGeminiが深く組み込まれているためだ。

Android XR対応機器では、Geminiによる音声対話が組み込まれている。単に声で命令をするのではなく、人間と話すように、自然な言葉で「会話」しつつ、必要なことを質問したり、アプリを操作してもらったりできる。

筆者が体験したデモでは、目の前に置かれた絵を認識し、その作者を教えてくれる……というものがあった。AIが目の前にあるものがなにかを教えてくれる、というデモはよくあるものなのだが、今回の場合には対話する相手がGeminiなので、「使われている技法は」「この絵が描かれた時代の特徴は」といったように、会話をそのまま続けていくこともできた。

GoogleはAndroid XRで「Understands your Context(あなたの文脈を理解)」というキャッチフレーズを使っている。Geminiの画像認識で周囲にあるものや文章を理解し、生活の中で必要な情報を提供する……ということなのだ。冒頭で出てきた自動翻訳はその一例であり、Geminiを生かした新しいデバイスを作ることが狙いでもあるわけだ。

GoogleはAndroid XRで「Understands your Context」をアピール(筆者撮影)

Google I/Oが開催されている最中である5月21日、OpenAIは、元アップルのジョニー・アイブ氏による企業ioを合併した。狙いは新しいハードウエアの開発であり、成果は「来年(2026年)に公表される」(OpenAI)としている。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事