リアルタイム翻訳の夢、次期iPhoneでついに実現。WWDC 25でApple Intelligence大規模アップデート公表。パーソナルコンテキストAIは1年後か

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ここではそのうち、AI機能であるApple Intelligenceのアップデート、そして“目指しているところ”について、現地取材の成果を含めて書き進めることにしたい。

製品の中に溶け込み始めたApple Intelligence

AppleがAI技術の応用において目指しているのは、クラウドに巨大な規模のサービスを置くことではない。彼らが関心を持っているのは、あくまで製品の価値を高めることだ。

検索技術に置き換えるなら、Appleは製品の中で管理している情報を検索する機能、Googleはインターネット上のあらゆる情報を検索する機能を提供している。この2つが競合しないように、AppleはクラウドAIには興味を持っていない。

そんなAppleが目指しているのは、製品を日常的に使う中でAIを効率的に活用し、また自社製品向けアプリが製品内に組み込まれたAIモデルを使って、高付加価値のアプリを開発すること。

そしてiOS 26(ネーミング規則が変更され、次年度の下2桁に全OSのバージョン番号が統一された)では、その両方に取り組んでいる。

すでに導入されている作文ツール、Gen文字、Image Playground、写真のクリーンアップ機能、自然言語による写真検索、メモリームービー作成、メールや通知の要約、スマートリプライといったApple Intelligenceの機能は、そのいずれもがデバイス上、あるいはプライベートクラウドコンピューティングというプライバシーが保護されたクラウド技術によって実行されている。

ユーザー以外の誰も、Apple自身でさえもデータにアクセスできないAIモデルが確立されたところで、アップルはAI技術をOS内部に密接に組み込もうとしている。また、すべてのApple製品に共通する付加価値として設計されているのもApple Intelligenceの特徴だ。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事