アップルは、先日の開発者イベントWWDC24で独自に開発をした大規模言語モデルを用いたAI機能についての発表を行った。Apple Intelligenceと名付けられたこの機能は、アップル製品の基本ソフトウェアの中に密に搭載されており、アップル製品の上で動作するアプリケーションは、このAI機能を等しく活用できる。
実際に日本で利用可能になるのは来年2025年のことである。英語版にしても随時機能が拡張されていき、年内にすべての機能が揃っていく形になる。
ほかのAIモデルと全く異なる「プライベートクラウド」
それぞれの機能に関して本稿では言及しないが、興味深いのはその構造である。前回の記事では、大きく2つの話題について言及した。
1つは、Apple Intelligenceが“デバイスの価値を高めるAI”であること。ChatGPT、あるいはその基本技術であるGPT-4oのように、汎用的で多様な知識について学習されたAIではなく、アップル製品の使いやすさを高め、ユーザーが製品内で取り扱うプライベートなデータ(通信内容や個人的なメモなども含む)を把握したうえで、質問に答え、先回りして必要な情報をさりげなく見せてくれる。
もう1つは、マイクロソフトが発表したCopilot+ PC向けに開発したSML(小規模言語モデル)のように、デバイス内で処理が完結するオフラインのAIが持つ特徴と、クラウド上でしか動作しえない大規模言語モデルの特徴の両方を備え、ユーザーのリクエスト内容やデバイスの状態、状況に応じて適応的に処理を行う仕組みを備えていることだ。
この2点において、ほかの大規模言語モデルを用いたさまざまなサービス、機能などとは一線を画しているが、2つを実現するために必要不可欠だったのが“プライベートクラウド”だ。
この技術はApple Intelligenceの根幹をなす部分だが、そのコンセプトを発展させることで、さまざまなシステムに応用できるだろう。
無料会員登録はこちら
ログインはこちら