米中GPU競争に遅れる日本、半導体サプライチェーン川上支配とオープンウェイトモデルが逆転のカギ
実は、大規模言語モデルにはクラウドで運用されるプロプライエタリ(商用)型のものと、オープンウェイトと呼ばれる無償で配布されるものがあるが、その二つの差は急速に縮まっている。
昨年末に彗星のように登場したオープンウェイトのDeepSeek-R1がOpenAIの最新モデルに匹敵する性能を持っていたことは世間を驚かせた。その後、中国のQwen3や、アメリカのMeta社のLlama 4などが登場し、トップラインのプロプライエタリなモデルとオープンウェイトモデルの差はほぼ完全になくなったと言ってよい。
企業の41%がオープンソースLLMの利用拡大を計画しているとの調査結果もある。対照的に、プロプライエタリLLMは、高性能、充実したサポート、エンタープライズ向け機能を提供するが、高コストでカスタマイズ性に乏しく、ベンダーロックインのリスクがある。一方で、動作が不安定で予期せぬサービス停止や突然のサービス終了などもあり、あまり安心して使うことが難しい。
「言葉の数」がAIの性能を決める
AIの性能を決めるのは、パラメータ数よりも対応可能なトークン数であることがわかり始めてきた。トークン数とは、「言葉の数」である。たとえば最初期のChatGPTは、わずか8000トークンしか扱えなかった。会話を続けていくと少しずつ以前の会話を忘れてしまうのは、トークン数が少なかったためである。
現在、最新鋭のクラウドAIサービスとして知られるGeminiやChatGPTは100万トークンにとどまるが、オープンウェイトモデルのLlama 4は1000万トークンに対応したと表明されている。ローカルLLMがクラウドのLLMを性能面でも超え始めている。
なぜそんなことになるのかと言えば、クラウドのLLMはどうしてもユーザーが使うための設備を提供側で用意しなければならないが、ローカルのLLMは、設備はユーザー側で用意するからだ。つまり、高性能なモデルであっても、提供側がハードウェアを準備する必要がない。
無料会員登録はこちら
ログインはこちら