週刊東洋経済 最新号を読む(5/16号)
東洋経済オンラインとは
ビジネス

エヌビディア生成AIで「独走」ライバル不在の理由 高性能半導体を次々と開発、AIブームを後押し

7分で読める
  • 津田 建二 国際技術ジャーナリスト兼News&Chips編集長
2/4 PAGES
3/4 PAGES

同じような外観検査装置用のAIでも魔法瓶の傷と、パソコンやスマホなどの電子製品の傷は異なる。製品ごとに傷の定義は異なるため、外観検査用AIでも汎用性はない。製品ごとに傷の種類を学習し直さなければならず、つまり専用AIなのである。

これに対し汎用AIは、外観検査用AIなら、どのような用途でも使え、顧客ごとにカスタマイズする必要がなくなる。生成AIはどのような問いにも答えを出してくれるという意味で汎用AIに近づいているのだ。

膨大なソフトには膨大なハードで対応

しかし、どのような質問にも答えてくれる、ということは学習させるべきデータ量が膨大になることを意味する。

2016年に発表されたディープラーニングの画像認識用ニューラルネットワークモデルの「ResNe-t50」は2500万パラメータしかなかったが、2018年にGoogleの研究者が発表した自然言語モデルの「BERT-Large」は3億4000万パラメータになり、2020年6月に発表されたチャットGPTに使われた「GPT-3」では1750億パラメータにも膨れ上がった。現在開発中のモデルだと1兆パラメータと予想されている。

300mmの半導体ウエハーから大きな1チップを作る、巨大半導体も登場(写真:Cerebras社)

これほど膨大になると、学習させるのに必要な時間は優に数百日以上となり、もっと高性能なAIチップが求められる。アメリカ・カリフォルニア州のスタートアップであるCerebras社は、2019年にウエハースケールの集積回路IC(21.5×21.5cm)を開発した(右写真)。

Cerebras社の創業者兼CTO(最高技術責任者)のGary Lauterbach氏は「巨大なAIソフトウェアの開発者は、今の(2019年時点で)GPUでは学習させるためのコンピュータ処理時間が数百日もかかる。このため巨大なモデル作りをあきらめようとしていた」と述べている。巨大なソフトウェアモデルには、巨大で超高性能なAIコンピュータが必要なのだ。

次ページが続きます:
【エヌビディアの独自性がAIブームで花開いた】

4/4 PAGES

こちらの記事もおすすめ

あなたにおすすめ

ビジネス

人気記事 HOT

※過去1週間以内の記事が対象