この機能がリリースされれば、エヌビディアのGPUカードを複数搭載してAIの性能を大幅に引き上げたPCを作るなどして、パフォーマンスの上限を一段と引き上げ、それを活用したより規模の大きな推論アプリケーションの開発を促すこともできる。
将来的には、さまざまな開発者によってWindows Copilot Runtimeを活用したより複雑なAIアプリケーションが作られ、さらなる進化の突破口を開いていくだろう。
また、Copilot+ PCに搭載されるNPUが強化されれば、グーグルが提供を始めた支援ツール「Notebook LM」のように、個人的に管理している情報を基にした言語モデル機能をデバイス内で実現できるようになる。
Notebook LMは、個人が管理している情報や、資料として参照しているURLなどの情報を言語モデルで処理し、そこから目的の情報を取り出して文章で回答する。グーグルはこの機能を、Google Drive上に作成するノートブックに情報を置き、クラウドのパワーを活用することによって提供している。
しかしNPUが強化され、デバイス内で同様の処理を完結できるようになれば、クラウドに依存せず内蔵NPUで動かす言語モデルを通じて情報をハンドリングすることが可能になる。
もちろん現時点では可能性でしかないが、ソフトウェアを開発するエンジニアに、新たな機能価値を生み出す基礎を提供していることは、大きな意味があるはずだ。
進化に向けた“足場”が作られた
現時点において、Copilot+ PCが実現している機能は夢のようなものではなく、想像の範疇と言える。クラウド上での大規模な計算能力を用いたAIによる問題解決に慣れている人の中には、「今の時代、それぐらいはできるだろう」と冷ややかに感じている人もいるかもしれない。
しかし重要なのは、“現時点で”何ができるかではなく、新たな進化に向けた足場をマイクロソフトが作った、という点にこそある。
もし同じようなイニシアティブをグーグルがとるのであれば、Androidを搭載するスマートフォンにも、Copilot+ PCと同様の枠組みを設定することができるはずだ。それはアップルがiPhoneの開発過程で築いてきた、アドバンテージの一部を切り崩すかもしれない。
冒頭で触れた通り、デバイス内でのAI処理に関して、過去数年はアップルがその主役だった。アップルが自身のデバイスを改良するために進化させてきた独自のNPUであるNeural Engineは、Core ML(Windows Copilot Runtimeに近い位置付けの機能)を通じてアプリケーションに応用され、デバイスの使い勝手を高めてきた。
無料会員登録はこちら
ログインはこちら