iPhoneで撮影した画像からChatGPTやGoogle検索を行えるVisual Intelligenceが便利。非対応モデルも工夫すれば同様のことが可能

✎ 1〜 ✎ 153 ✎ 154 ✎ 155 ✎ 156
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
Apple Intelligence Visual Intelligence
Apple Intelligenceの目玉と言える機能の1つが、Visual Intelligenceだ。AIによる画像の分析と画像検索などを統合しており、利便性が高い(筆者撮影)
この記事の画像を見る(6枚)

ブラウザーに表示された言語はワンタッチで翻訳できるようになったが、雑誌や新聞など、紙に印刷されたものだとそうはいかない。写真に撮って、文字を認識させ、翻訳にかけるというのはさすがに手間がかかる。旅行や出張で海外に出たときには、特にこのようなシーンに出くわすことが多くなるはずだ。

印刷物の翻訳に役立つ「Visual Intelligence」

目の前に存在しているものが、いったい何なのかがわからないということもあるだろう。草木の名前が正確にわからなかったり、道路標識の意味をど忘れしてしまったり、契約書の文言が難解すぎて理解できなかったり……というようなシーンでは、検索で正解を見つけ出すのも難しい。このようなときに便利なiPhoneの機能が、「Visual Intelligence」だ。

Visual Intelligenceとはカメラを使い、ChatGPTやGoogle検索などで調べ物ができる機能のこと。Apple Intelligenceに対応したiPhone 15シリーズのProモデルや、iPhone 16シリーズで利用できる。特にiPhone 16eを除くiPhone 16シリーズでは、カメラコントロールからダイレクトに呼び出せて使い勝手がいい。

とは言え、カメラコントロールがないiPhone 15 ProシリーズやiPhone 16eでは、呼び出すための設定に一工夫が必要になる。また、その他のApple Intelligence非対応モデルではVisual Intelligenceも利用できないため、近いことができるアプリを探す必要がある。ここでは、同機能の便利な使い方を紹介するとともに、非対応機種での対応策を提案していきたい。

次ページはこちら
関連記事
トピックボードAD
ライフの人気記事