iPhoneで撮影した画像からChatGPTやGoogle検索を行えるVisual Intelligenceが便利。非対応モデルも工夫すれば同様のことが可能
Visual Intelligenceは、カメラコントロールから呼び出せる画像検索や翻訳、生成AIの呼び出しなどを統合した機能だ。このキーはiPhone 16eを除くiPhone 16シリーズから搭載が始まったが、単に写真を撮るだけでなく、AIを呼び出すためのボタンとして使えるというわけだ。調べ物をしたいとき、長押しだけですぐに呼び出せるため使い勝手がいい。
画像を使って「質問」や「検索」「翻訳」が可能
使い方は至ってシンプル。Visual Intelligenceを立ち上げると、シャッターキーの左右に、「質問」と「検索」というアイコンが表示される。調べたいものを画面内に表示した状態で、ChatGPTに何かをたずねたいときには「質問」、グーグルによる画像検索をしたいときには「検索」をタップすればいい。
例えば、商品について詳しく知りたいときや、ネットで同じものを買いたいというときには、「検索」をタップする。ものにもよるが、グーグルの画像検索で、その商品を解説しているページや、販売しているサイトが表示されるはずだ。まったく同じものがなくても、近い商品がヒットするのでそれを検討してもいい。

筆者も、試しに自分がはいているデニムパンツをVisual Intelligenceで検索してみたところ、まったく同じブランドの同じ商品が販売されているメルカリのページがヒットした。
ペイント加工が施されており、特徴的な商品ではあるものの、ここまで正確に割り出せるとは思っていなかったので驚きもあった。
グーグルの画像検索が優れているだけという見方はできるが、それをすぐに呼び出せる利便性は評価できる。
逆に、同じデニムパンツを写した状態で「質問」をタップしてから、「どういうコーディネートがいい?」と聞くと、ChatGPTがその画像を元に回答を返してくれる。試したみたところ、トップスには「無地の白や黒のTシャツ」、シューズは「白のスニーカーやブーツ」などの提案があった。
このように、同じ画像でも用途に応じて呼び出す機能を使い分けられるのがVisual Intelligenceの特徴。カメラで写せるものを調べたいときに、とりあえず呼び出せばいいのでわかりやすい。
無料会員登録はこちら
ログインはこちら