米中GPU競争に遅れる日本、半導体サプライチェーン川上支配とオープンウェイトモデルが逆転のカギ

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
IV. 日本は独自データとオープンウェイトの「AIシステム」で勝負する

実は、大規模言語モデルにはクラウドで運用されるプロプライエタリ(商用)型のものと、オープンウェイトと呼ばれる無償で配布されるものがあるが、その二つの差は急速に縮まっている。

昨年末に彗星のように登場したオープンウェイトのDeepSeek-R1がOpenAIの最新モデルに匹敵する性能を持っていたことは世間を驚かせた。その後、中国のQwen3や、アメリカのMeta社のLlama 4などが登場し、トップラインのプロプライエタリなモデルとオープンウェイトモデルの差はほぼ完全になくなったと言ってよい。

企業の41%がオープンソースLLMの利用拡大を計画しているとの調査結果もある。対照的に、プロプライエタリLLMは、高性能、充実したサポート、エンタープライズ向け機能を提供するが、高コストでカスタマイズ性に乏しく、ベンダーロックインのリスクがある。一方で、動作が不安定で予期せぬサービス停止や突然のサービス終了などもあり、あまり安心して使うことが難しい。

「言葉の数」がAIの性能を決める

AIの性能を決めるのは、パラメータ数よりも対応可能なトークン数であることがわかり始めてきた。トークン数とは、「言葉の数」である。たとえば最初期のChatGPTは、わずか8000トークンしか扱えなかった。会話を続けていくと少しずつ以前の会話を忘れてしまうのは、トークン数が少なかったためである。

現在、最新鋭のクラウドAIサービスとして知られるGeminiやChatGPTは100万トークンにとどまるが、オープンウェイトモデルのLlama 4は1000万トークンに対応したと表明されている。ローカルLLMがクラウドのLLMを性能面でも超え始めている。

なぜそんなことになるのかと言えば、クラウドのLLMはどうしてもユーザーが使うための設備を提供側で用意しなければならないが、ローカルのLLMは、設備はユーザー側で用意するからだ。つまり、高性能なモデルであっても、提供側がハードウェアを準備する必要がない。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事