そのうえで、デバイス内で答えが出せる内容はデバイス内で、より高度な生成が必要な場合は、デバイスが関連するわずかな情報のみ選び、これを記録されないことを保証するアップルのプライベートクラウドコンピュートのサーバに送り、機械学習処理の結果を返してくる、という手法を採る。
これによって、プライバシーに配慮することと、個人のプライバシーに関わる広範な情報を扱うことを両立させようとしている。
アップルインテリジェンスで実現しようとしているのは人間の知能の再現と言える。個人的な文脈はあらかじめ理解していて、それを基に情報を調べたり、行動を取る。人間を超える言語や情報の処理能力によって、使いこなせるようになる習熟を避けつつ、「人間の手間を減らす」ことを実現するのだ。
アップルインテリジェンスを扱うハードル
クレイグ・フェデリギとともにアップルインテリジェンスのトークセッションに登場した、機械学習とAIを担当するシニアバイスプレジデント、ジョン・ジャナンドレアは、アップルインテリジェンスが、長年のアップルの取り組みの上に成り立っている点を強調した。
「Appleのミッションは、それが私たちの生活の中でどのように意味を持つことができるか。いかに直感的にし、人々に利用可能にするか、でした。生成コンピューティングについても、まったく同じように見ています。
実は、あなたのiPhoneには、今日のアップルインテリジェンス発表の前から、約200ものAIモデルが備わっていました。
例えば、写真の意味や動画の内容を理解し、アプリ内のアクションを検索可能にし、メッセージやメールなどのあらゆることをインデックス化してきました。これらがアップルインテリジェンスで利用可能になったのです。あなたが言っている内容を理解するために、何年もかけて構築されてきたストーリーなのです」(ジョン・ジャナンドレア)
その一方で、アップルインテリジェンスを扱うためには、いくつかのハードルがある。デバイスの性能と言語だ。
iPhoneでは、2023年に発売されたiPhone 15 Pro、iPhone 15 Pro Max(それぞれA17 Proチップ搭載)が必要になる。またiPadとMacでは、2020年に登場したM1チップ以降を搭載していることが求められる。それぞれ、対応する以前のデバイスでは、アップルインテリジェンスが利用できない。
さらに、秋以降にベータ版が提供されるアップルインテリジェンスは、当初は英語のみでの利用となる。日本語を含む多言語対応は、2025年以降にずれ込むことになり、日本のユーザーが日本語でアップルインテリジェンスを体験するのは、しばらく後の話となる。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら