生成AIが「目を持った」ように使えるiPhoneのVisual Intelligenceで、メニュー翻訳から表計算まであっという間。知っておきたい活用術

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

風景や、部屋の光景などを撮っても、それを認識してだいたいの説明をしてくれるところは、普段からChatGPTをお使いの方ならお分かりだろう。

「なんだ、新しいカメラコントロールボタンの長押しで、ChatGPTが使えるようになっただけね」と言われれば、まぁその通りではある。

しかし、この『ワンボタンで生成AIを呼び出せる』というところに、アップルらしさを感じるのだ。『画像をChatGPTにアップロードすれば使える』というのと、『ワンボタンでChatGPTに送られる』というのは同じようで違う。言わば、ChatGPTが目を持ったようなものなのだ。

また、プロンプトの類いはApple Intelligenceが作ってChatGPTに投げる仕組みなのだろう。ユーザーが意識する必要はない。

iPhoneが登場したときに、『従来の携帯(後にガラケーと言われる)にタッチパネルを付けただけ』と言った人は多かったが、実はそれは『コンピューターを持ち歩けるようにした』という革命だったのだ。もしかしたら、アップルはApple Intelligenceで『生成AIを持ち歩けるように』しようとしているのかもしれない。

いわば、生成AIが『目』を持ったという感じ

iPhoneのカメラがChatGPTの目になることで、そこにさまざまな新しい機能が生まれている。

長文を読ませて要約してもらう。読む必要があるかどうか判断するのには便利かも(写真:筆者撮影)

文章を見せて、それを要約させることができる。素早く読めばいい話ではあるが、自分が詳しくない分野の話でも概要を教えてもらえば、細かく読むべきかどうかの判断ができる。ちなみに、この機能はChatGPTではなくApple Intelligence単体の機能なので、Wi-Fiのない飛行機の中など、オンラインでない状態でも動作する可能性が高い。

単純な機能のようだが、これは他言語でも可能だ。長文の英語を読み解くのが大変な人は多いと思うが、概要が分かれば、細かく読むべきかどうかが判断できる。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事