中国への半導体制裁がますます強化される必然 DeepSeekはアメリカに大きな「教訓」を与えた
![](https://tk.ismcdn.jp/mwimgs/0/c/1140/img_0cd64c310f3978a06a70aba18f9faa65220932.jpg)
制裁が中国のAIを鍛えた
――DeepSeekの出現でエヌビディアの株が暴落しました。エヌビディアが作る高性能のGPUがなくても、優れたAIを開発できるという可能性をDeepSeekが示したからです。なぜDeepSeekはこのようなブレークスルーを達成できたのでしょうか。
アメリカの制裁がある中、中国にとっては最高性能のGPUを使ってAIを開発することは非現実的です。この制約を受けて、中国はAIモデルのイノベーションを試みてきました。その成功例がDeepSeekです。DeepSeekは「AIには最高性能の半導体が必ず必要というわけではない」という事実を、誰の目にも明らかにしたのです。
![](https://tk.ismcdn.jp/mwimgs/2/e/500/img_2e6c4e8c0ec1e5a83d721deedf130480129424.jpg)
DeepSeekやChatGPTのようなLLM(大規模言語モデル)のAIはパラメーター(正確な結果を出すためのプログラム内の変数)数が膨大なものになっています。パラメーター数が増えると計算量が大きくなり、より大規模な計算資源を必要とするため、アメリカの主なAI企業はより高性能のGPUを大量に使うようになっています。
ところが中国のDeepSeekはGPUを入手する上で制約があるため、全く違う道を選びました。AIモデルを複数の「エキスパート(専門家)」に分割するMoE(Mixture-of-Experts)という方法です。DeepSeekの場合は全体を256のエキスパートに分割しており、何かが入力されると、そのうち56のエキスパートが計算処理に当たるのです。
これによってデータ計算量は全体が1つであった場合のおよそ12分の1にまで圧縮でき、さほど高性能ではないGPUでも遜色のない性能を出せるようになったのです。
MoEは決してDeepSeekの発明でも何でもなく、多くのAI開発者が理解していました。しかしこれまでアメリカではMoEのめざましいブレークスルーが起こらなかった。その理由は、アメリカのハイテク企業には豊富な計算資源があったからです。
例えばイーロン・マスクのxAIは、ハードウェアを調達する予算にほとんど制約がありません。そういったアメリカ企業にとっては計算量を最適化することよりも、計算資源への負荷が大きくてもより強力で速いモデルを作ることの方が優先課題になってきたのです。
これに対して中国はアメリカの制裁によって追い込まれ、十分な計算資源を構築できなかった。だからAIモデルのイノベーションによって、計算量そのものを最適化するしかなかったのです。
無料会員登録はこちら
ログインはこちら