普通のメガネで翻訳・ナビ、AIと会話しながら検索できるように。Google I/O 2025で発表された未来の日常生活

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
5月20日に開催されたGoogleの年次イベント「Google I/O 2025」(筆者撮影)
この記事の画像を見る(7枚)

Googleは現在、同社のAIサービス「Gemini」の活用に全力を投じている。5月20日に開催された同社の年次イベント「Google I/O 2025」では、デジタルガジェットから検索サービスまで、Geminiの活用が軸になって構築されていた。

結果としてそのことは「これまでに培ったGoogleの強みを最大限に活用する」という戦略であり、他のAIプラットフォーマーとの差別化という話にもなる。

それはどういうことかを解説してみたい。

Android XRで「AI連動デバイス」を開発

Google I/Oの発表の中でも、見た目に最も派手だったのは、新しいスマートグラスのデモだっただろう。一見普通のメガネにしか見えないものがワイヤレスでスマートフォンとつながり、AIを介して自動翻訳やナビゲーションを提供する。

スマートグラスをかけたもの同士が、それぞれ別の言語を話しつつ、英語へと自動翻訳するデモ(筆者撮影)

このスマートグラスの開発に使われているのが「Android XR」というプラットフォームだ。これはGoogleがVRやARを活用するデバイス向けに作った新プラットフォームで、海外ではハイエンドデバイス「Project Moohan(仮称)」から年内に発売される。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事