中国AI「DeepSeek」、究極の後追い戦略の破壊力 世界最先端に匹敵する性能を低コストで実現

✎ 1〜 ✎ 1529 ✎ 1530 ✎ 1531 ✎ 1532
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
数カ月前まで無名に近かった中国のDeepSeekが、世界中のAI研究者から熱い注目を浴びている(写真は同社ウェブサイトより)

中国のAI(人工知能)スタートアップのDeepSeek(ディープシーク)が開発した高性能・低コストの生成AIが、アメリカのAI業界に衝撃を与えている。

DeepSeekは1月20日、推論能力を飛躍的に高めた大規模言語モデル「DeepSeek-R1」を発表。その性能について、アメリカのオープンAIが2024年9月にリリースした最新AIモデル「o1」に匹敵すると主張した。

この1カ月前の2024年12月26日に、DeepSeekは新世代の大規模言語モデル「DeepSeek-V3」を発表したばかりだった。同社はその性能が、世界最先端とされるオープンAIの「GPT-4o」に迫ると主張するとともに、機械学習に関してはエヌビディアが中国向けに(性能を落として)製造したAI半導体「H800」を2048個使い、トレーニングコストはわずか557万6000ドル(約8億7000万円)だったと明かした。

無名企業が一躍注目の的に

海外のAI研究者にとって、DeepSeek-V3のトレーニングコストは常識外れの低さであり、それまで無名に近かったDeepSeekへの注目度がにわかに高まった。

「この水準の性能を持つ大規模言語モデルの機械学習には、1億6000万個のAI半導体が必要というのが業界の定説だ」。オープンAIの共同創業者の1人でコンピューター科学者のアンドレイ・カルパシー氏は、SNSへの書き込みで驚きをあらわにした。

アメリカのメタ(旧フェイスブック)のあるエンジニアは、DeepSeek-V3の極めて低いトレーニングコストが「生成AIに対する巨額投資への懸念を、わが社の経営陣にもたらした」と社内ネットワークに書き込んだ。

このエンジニアによれば、DeepSeek-V3の性能はメタが開発中の次世代AIモデル「Llama4」に匹敵する。メタの経営陣を震撼させたのは、それを無名の中国企業がたった550万ドル(約8億5800万円)余りの予算で達成したことだった。

関連記事
トピックボードAD
ビジネスの人気記事