1つ目は、NVIDIAのAI開発環境を導入するうえで、つねに問題になる「初期導入コストの高さ」だ。
NVIDIAが提供するGPUは単体(コンピューターに内蔵させる拡張ボード)の形から、NVIDIAがDGXと呼んでいるスーパーコンピューターまでさまざまなラインナップが用意されているが、GPU単体でも数十万円、DGXというスーパーコンピューターなら数千万円という価格がつけられており、いずれの製品も入手がしにくく、流通レベルでの価格は高止まりしているというのが現状だ。
2つ目は、ランニングコストだ。NVIDIAはつねに「GPUはCPUでAIを処理する場合に比べて消費電力が低い」とアピールしているが、それでもボード1枚で数百ワットの消費電力を消費する。
確かにインテルやAMDが提供するCPUに比べて電力効率は高いのだが、それでも絶対的な消費電力は高い。GPUを自社のデータセンターに格納する場合には、それだけの消費電力により発生する熱を放熱する放熱機構(具体的には冷却ファン)、そしてGPU自体やそうした放熱機構から発生する消費電力への電力供給とそれに伴い発生する電気料金への対応が必要になる。
競合メーカーのアピールポイントは?
現在NVIDIAのGPUはAI開発の現場で90%近いシェアを占めているとされる。そのNVIDIAの牙城を崩そうとしている競合メーカーは、「NVIDIAよりも安価」で「NVIDIAよりも電力効率が高い」という2つをアピールすることに余念がない。
NVIDIAと同じGPUを持ちながら、これまであまりAI向けにアピールができていなかったAMDは、NVIDIAのGPUに対抗する「Instinct MI300」という製品を6月に発表している。
同製品は、AMDがインテルとの競争の中でいち早く導入した「チップレット」と呼ばれる技術が採用されており、1つのパッケージ上に複数のチップを混載することでNVIDIAのGPUよりも高い電力効率を実現する。
無料会員登録はこちら
ログインはこちら