日本で人気のPixel、新機能は「英語のみ」のナゼ 新モデルは日本と海外で別の機能をアピール

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

2つ目が「Pixel Screenshots」だ。これはスクリーンショットを撮るとその中の内容や文章、ウェブのアドレスなどが解析され、自動的に整理されるというもの。写真やスクリーンショットを見て、そこに含まれる電話番号やアドレスをタイプする……という作業をする人は多いはずだが、それが不要になる。

実際には「自動的に文字化」するのではなく、スクリーンショットを撮ることで「検索可能な情報にする」と考えたほうがいい。要はスマホの中で起きたことのうち「これは忘れると困る」と思ったらスクショを撮っておくと、AIによって「行動のデータベース」に変わるという考え方だ。

スクリーンショット内の情報をAIが解析、行動のデータベースに変える「Pixel Screenshots」(筆者撮影)

どちらも極めてプライベートな情報を含むので、情報はクラウドに送られることなく、機器の中で動く「オンデバイスAI」で処理される。自分が持つスマホの中で完結するので、内容はグーグルも把握できない。

こうした要素は、スマホなどの中で動作する「Gemini Nano」と、比較的高性能なプロセッサー、容量の大きなメモリーとのセットで実現される。

現在は同社の「Pixel」のほか、サムスンの「Galaxy」やモトローラの「Razr」といったハイエンド端末への組み込みが進んでいる。今後、より広い製品に使われることになっていくだろう。

ラフな言い方でも認識する「Gemini Live」

最後の1つが「Gemini Live(日本ではGemini Liveチャット)」だ。

スマホで人間と自然な対話を実現する「Gemini Live」がスタート(筆者撮影)

スマホで音声を使って操作・検索する機能は、以前より「音声アシスタント」として実装されている。Gemini Liveはその進化版と言えるものだ。グーグルの有料サービス「Google One Advanced」を利用するアメリカの顧客に対し、8月13日からスタートした。

圧倒的に滑らかな対話ができて、反応も素早い。重要なのは、人間が正確に話さなくても、ちゃんと対話が続くことだ。

人間は話す時、意外なほど「ちゃんと話していない」ものだ。だから、これまでの音声技術では、まず「なにを言おうとしているのかを考える」必要があった。途中で言い淀むと命令が伝わらず、エラーになりやすい。

しかし、人間同士の対話では違う。じっくり考えずに、思ったことをラフに話している時間のほうが長い。

Gemini Liveはこれまでの音声アシスタントとは異なり、完璧なフレーズでなくても、ラフな言い方で認識して働く。

関連記事
トピックボードAD
ビジネスの人気記事