米中GPU競争に遅れる日本、半導体サプライチェーン川上支配とオープンウェイトモデルが逆転のカギ
第二に、「コンピュート・ウォール」、すなわち最先端AIモデル開発に必要な計算資源の莫大なコストとリソース集約性が顕著になっている。
Colossusだけで1日130万ガロンの水とピーク時150メガワットの電力を消費し、Stargateプロジェクトではデータセンター建設に50万トンの鋼鉄が必要と試算されるなど、その規模は社会インフラレベルに達している。これは、巨額の資本を持つプレイヤー以外が最先端競争に参入することを困難にし、市場の寡占化を招く可能性がある。
こうした国際的な潮流に対し、日本もAI開発に不可欠な国内計算基盤の整備を国家戦略として推進している。経済産業省は、ソフトバンクに最大421億円、さくらインターネットなどを含む計画全体には最大725億円規模の補助を行い、AI向けスーパーコンピュータの整備を後押ししている。
政府は2027年度末までに国内の計算基盤整備目標として累計60エクサフロップスを掲げており、ソフトバンクは自社AI開発に加え、スタートアップへの計算資源提供も計画している。
日本は現実的なアプローチを余儀なくされている
この目標値は、xAIのColossus一基が目指す約497エクサフロップスやMetaの計画するH100 GPU35万基体制と比較すると、規模の面では依然として大きな差がある。まるでアリとゾウの戦いだ。
これは、日本が必ずしも汎用大規模言語モデル(LLM)開発の計算能力で世界のトップランナーと正面から競うのではなく、国内産業のニーズに応じたAI開発や、特定の強みを持つ分野での活用を重視する戦略的ヘッジング、すなわち一定の計算基盤の自律性を確保しつつ、国内エコシステムを育成する現実的なアプローチを余儀なくされていることを示している。
国内の代表的なAI研究基盤である産業技術総合研究所の「AI橋渡しクラウド(ABCI)」も、継続的な能力増強が図られてはいる。
旧システムではNVIDIA V100 GPUを4352基、NVIDIA A100 GPUを960基搭載していたが、新システム(ABCI 2.0)では最新のNVIDIA H200 GPUを導入し、計算ノード(H)だけで総GPU数は6128基へと増強されたものの、MetaやOpenAIの投資に比べるとささやかなものだ。
我々日本人は爪に火をともすような心細い計算資源で徒手空拳戦わなければならない。こうした国家的な研究開発基盤の進化は、国内のAI研究開発力の底上げに不可欠であるが、まだまだ到底充分とは言えない。
無料会員登録はこちら
ログインはこちら