アップルのAIソリューションは、基本的にはデバイス内で完結するエッジAIで処理される。デバイス内で処理される言語モデルのパラメーター数は30億。この規模はクラウド上で提供されるLLMに比べれば1桁少ないが、デバイス上で処理される質問に絞り込んでおり、個人的なタスクの多くはこなせる。
ちなみにマイクロソフトがCopilot+ PCに搭載するデバイス処理用の小規模言語モデル(SML)「Phi-Silica」は33億パラメーターだが、アップルはその原型となっている38億パラメーターのPhi-3-miniよりも文章生成において良い成績を挙げているという。
これだけでも、自社の持つ強みをうまく使っているが、4つあると書いた残りの2つもライバルが追従しにくい要素だ。
クラウドAIレベルのサービスを無料で提供
3つ目の違いは、クラウドに接続しながらもプライバシーを守るというiPhoneの理念と同じアプローチが言語モデルの中でも徹底されていることにある。 プライベートクラウドという技術を用いると、ユーザーはそれと意識する必要なく、デバイス内でのAI処理で不足する内容の処理を、アップルが設置するデータセンター内で動作するAIプロセッサーで実行させる。いわゆるクラウドAIである。
デバイス内の処理とプライベートクラウドへの拡張はシームレスに行われ、ユーザーはいっさいそこに関与する必要はない。プライバシーデータはクラウドで処理を行ったとしても漏れることがないように設計されている。
データセンター内で実行される大規模言語モデルのパラメーター数は発表されていないが、その性能はGPT-3.5-Turboなどと遜色ない性能を、より高いエネルギー効率で実現しているという。
では、どのようにしてプライベートクラウドを機能させるのだろうか?
プライベートクラウドの詳細は極めて複雑だが、ここでは可能な限りシンプルに説明することにしよう。
無料会員登録はこちら
ログインはこちら