全方位でNVIDIAに挑戦状「インテル」逆襲は本物か ローエンドからハイエンドまでAI向けを拡充

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

生成AIのような巨大なソフトなら巨大なハードウェアで対応しなければならないが、簡単なデータ処理なら専用AIで学習できる。すでにクラウドにはさまざまな学習データがあり、それらを利用、追加学習させることで自分専用のAI解析ができるわけだ。例えば、金属光沢の製品の外観検査も、AIが学習して自動化できるようになっている。

端末向けAIの市場規模は市場調査会社によってさまざまだが、数百億ドルから1000億ドルという予想もあり、今後この分野が伸びていくことは間違いない。

「目的別生成AI」も出てくる

NVIDIAはAIの学習と推論処理機能を、チップだけではなく、サブシステムやソフトウェアでも充実させてきている。さまざまスーパーコンピューターに使われている「A100」というGPUから最近の「Grace Hopper」に至るまで、AIを強力に推し進め、AI向けのソフトウェア製品群も豊富に揃えている。

だが、前述の通り、巨大な生成AIばかりがAIではない。ChatGPTを開発するオープンAIが進めているような巨大なAIソフトウェアモデル(大規模言語モデル)を学習に使うためには、巨大なハードウェア、あるいは、スケールが可能なハードウェア、つまり半導体AIチップが必要なってくる。

そこに目をつけたIBMは生成AIのビジネスに合った目的別の生成AIを提供すると発表した。GPT-3のような1750億パラメータではなく、新薬開発のように目的別のAIモデルを開発すれば、80億あるいは100億パラメータで済むことを明らかにしており、巨大なソフトウェア開発よりも目的別のソフトウェア開発に力を注ぐというわけだ。

同様なことがスマホやパソコンでも起きている。AI機能を搭載することで、それぞれの端末で学習も行わせるのだ。インテル、AMD、クアルコムともAIの学習機能を載せられるチップを開発してきた狙いはそこにある。

関連記事
トピックボードAD
ビジネスの人気記事