そのNVIDIAが大きな転機を迎えた時期は、2010年代の半ばにGoogle、Facebook、MicrosoftなどがAIに注目をしだした時期と重なっている。従来はそうしたITのトレンドはIT企業だけのブームに終わっていたが、2010年代のAIはそれまでITに関係がなかった大企業なども積極的に導入に取り組むようになり、ある種のAIブームが到来した。
そうしたAIのソフトウェアを開発する過程では、学習(英語ではLearning)という作業が必須になっている。具体的には生まれたてのAIに、ネコの写真を見せて、これはネコだよと、幼児教育を行うようなものだと考えるといい。
その学習には超巨大なデータを高速に処理する必要がある膨大な演算能力が必要になるのだが、AIの開発者がこのとき選択したのが、NVIDIAのGPUと、NVIDIAが開発して提供しているCUDA(クーダ)というソフトウェア開発キットだったのだ。そのGPUとCUDAの組み合わせにより、IntelやAMDが提供しているCPUを利用した場合に比べて数十倍、場合によっては数百倍の速度で学習を行えるようになったため、AI開発者がこぞってNVIDIA GPU+CUDAを買い求め、データセンターに入れて使うようになっていった。
その結果、それまでほとんど売り上げのなかったデータセンター向けGPU事業は急成長した。
競合メーカーの動きは?
NVIDIAの成功を見た競合メーカーもキャッチアップしようと躍起になっているが、今のところNVIDIAがAI学習向けの半導体市場では「90%以上」(NVIDIA CEO ジェンスン・フアン氏)という状況を突き崩せていない。AMDやIntelも、データセンター向けGPUを出しているが、採用例は圧倒的に少ない。性能うんぬん以前に、CUDAをはじめとしたNVIDIAの開発環境の充実度合いが両社のそれに比べて圧倒的で、ソフトウェア面でAMDも、Intelもまったく追いつけていないからだ。
両社がソフトウェア面で足踏みしている間に、NVIDIAはますますソフトウェア開発環境を充実させており、今では産業別に開発キット、例えば自動車向けのCUDA、ロボット向けのCUDA、医療向けのCUDAという形で充実させており、そうしたソフトウェアの充実がスパイラルのような効果を生み出してさらに採用が進むという好循環にあり、競合メーカーが追い付くのは簡単ではない状況だ。
無料会員登録はこちら
ログインはこちら