リアルタイム翻訳の夢、次期iPhoneでついに実現。WWDC 25でApple Intelligence大規模アップデート公表。パーソナルコンテキストAIは1年後か
ここではそのうち、AI機能であるApple Intelligenceのアップデート、そして“目指しているところ”について、現地取材の成果を含めて書き進めることにしたい。
製品の中に溶け込み始めたApple Intelligence
AppleがAI技術の応用において目指しているのは、クラウドに巨大な規模のサービスを置くことではない。彼らが関心を持っているのは、あくまで製品の価値を高めることだ。
検索技術に置き換えるなら、Appleは製品の中で管理している情報を検索する機能、Googleはインターネット上のあらゆる情報を検索する機能を提供している。この2つが競合しないように、AppleはクラウドAIには興味を持っていない。
そんなAppleが目指しているのは、製品を日常的に使う中でAIを効率的に活用し、また自社製品向けアプリが製品内に組み込まれたAIモデルを使って、高付加価値のアプリを開発すること。
そしてiOS 26(ネーミング規則が変更され、次年度の下2桁に全OSのバージョン番号が統一された)では、その両方に取り組んでいる。
すでに導入されている作文ツール、Gen文字、Image Playground、写真のクリーンアップ機能、自然言語による写真検索、メモリームービー作成、メールや通知の要約、スマートリプライといったApple Intelligenceの機能は、そのいずれもがデバイス上、あるいはプライベートクラウドコンピューティングというプライバシーが保護されたクラウド技術によって実行されている。
ユーザー以外の誰も、Apple自身でさえもデータにアクセスできないAIモデルが確立されたところで、アップルはAI技術をOS内部に密接に組み込もうとしている。また、すべてのApple製品に共通する付加価値として設計されているのもApple Intelligenceの特徴だ。
無料会員登録はこちら
ログインはこちら