エヌビディア生成AIで「独走」ライバル不在の理由 高性能半導体を次々と開発、AIブームを後押し
同じような外観検査装置用のAIでも魔法瓶の傷と、パソコンやスマホなどの電子製品の傷は異なる。製品ごとに傷の定義は異なるため、外観検査用AIでも汎用性はない。製品ごとに傷の種類を学習し直さなければならず、つまり専用AIなのである。
これに対し汎用AIは、外観検査用AIなら、どのような用途でも使え、顧客ごとにカスタマイズする必要がなくなる。生成AIはどのような問いにも答えを出してくれるという意味で汎用AIに近づいているのだ。
膨大なソフトには膨大なハードで対応
しかし、どのような質問にも答えてくれる、ということは学習させるべきデータ量が膨大になることを意味する。
2016年に発表されたディープラーニングの画像認識用ニューラルネットワークモデルの「ResNe-t50」は2500万パラメータしかなかったが、2018年にGoogleの研究者が発表した自然言語モデルの「BERT-Large」は3億4000万パラメータになり、2020年6月に発表されたチャットGPTに使われた「GPT-3」では1750億パラメータにも膨れ上がった。現在開発中のモデルだと1兆パラメータと予想されている。
これほど膨大になると、学習させるのに必要な時間は優に数百日以上となり、もっと高性能なAIチップが求められる。アメリカ・カリフォルニア州のスタートアップであるCerebras社は、2019年にウエハースケールの集積回路IC(21.5×21.5cm)を開発した(右写真)。
Cerebras社の創業者兼CTO(最高技術責任者)のGary Lauterbach氏は「巨大なAIソフトウェアの開発者は、今の(2019年時点で)GPUでは学習させるためのコンピュータ処理時間が数百日もかかる。このため巨大なモデル作りをあきらめようとしていた」と述べている。巨大なソフトウェアモデルには、巨大で超高性能なAIコンピュータが必要なのだ。
無料会員登録はこちら
ログインはこちら