生成AIを軸とした、ビッグテックによる「AI開発競争」が第2幕を迎えた。
5月14日(アメリカ太平洋時間)にGoogleは、例年通り年次開発者会議「Google I/O 2024」を開催。今年は例年以上に「AI」にフォーカスした基調講演を行った。
一方でそれに先回りするように、5月13日にはOpenAIが同社の生成AI「GPT-4」の改良版にあたる「GPT-4o」を発表し、話題をさらった。
両社の発表には明確な共通点がある。
それは「画像・音声対応」と「即応性」だ。
こうした要素を両社が重視するのは、AIの活用が一般化するために必須のことだからである。
それはどういうことなのか、そして、この変化はスマートフォンなどにどのような変化をもたらすかを考えてみよう。
自然な対話を実現する「Project Astra」
Google I/Oでの発表の中でも、来場者が特にざわめいたのは「Project Astra」だった。
これがどのような技術であるかは、基調講演で公開されたデモのビデオを見るのが近道だ。
スマートフォンのカメラで見たものがなにかを識別し、声での質問に、自然な音声で答える。ただ回答するだけではない。単に目の前の課題に答えるだけでなく、それまでに交わした会話の中で出てきたものを理解し、記憶し、その情報を使って質問に回答する。
無料会員登録はこちら
ログインはこちら