米中GPU競争に遅れる日本、半導体サプライチェーン川上支配とオープンウェイトモデルが逆転のカギ
また、これだけ長いトークンを扱えるようになると、これまでファインチューニング(微調整)と呼ばれてきた作業が、丸ごと必要なくなる。学習させるべきデータを、ただプロンプトに含めておくだけで、自動的にその知識を使って回答してくれる。
これを「文脈内学習(イン・コンテキスト・ラーニング)」と呼ぶ。ラーニングとついているが、実際には「学習」しているわけではない。この文脈内学習を活用することで、オープンウェイトモデルでも専門的に訓練されたモデルと同等以上の思考能力を獲得できる。
また、LLMの運用には必ずしもGPUは必要とされない。例えば、MacStudioは最大512GBのメモリを搭載でき、巨大なモデルの推論もGPUと同等のスピードで行うことができることで注目を集めている。
日本だけの強み
日本には創立1000年を超える会社が世界でいちばん多いと言われている。
こうした場所を支えているのは、門外不出のノウハウであり、独自に練り上げられてきた知恵と経験だ。こうしたノウハウをローカルのLLMに文脈内学習させ、活用するようなシステムを作れるのは、まさしく日本だけの強みと言える。
それぞれの会社が独自のノウハウをデータ化し、オープンウェイトのLLMとハードウェアを丸ごと組み合わせた、いわば「AIシステム」とでも呼ぶべきものが手軽に作れるようになったことで、潮目が変わっていくことになるだろう。
例えば、筆者は1年半に及び、さまざまな経営経験者から失敗談、成功譚を収集している。倒産した会社のキャッシュフロー表や財務諸表、投資家に見せた資料など、赤裸々なものでこれは絶対に流出させてはならないものだ。
そうした貴重なノウハウを数百時間分集め、これをローカルのハードウェアに文脈内学習させ、投資先の企業経営に直接活用しようというわけだ。これは「経営指導AI」というAIシステムの一例である。
この時AIシステム開発に必要なもの、特に重要なものは、実はソフトウェアでもハードウェアでもない。「知恵」だ。人に伝えることができるものならば、なんであっても、AIシステムへと応用できる。動画でも音声でもなんでも、だ。
OpenAIのサム・アルトマンが来日して岸田首相(当時)に会った際、彼が求めたのは日本政府が保持する膨大な内部データだったという噂がある。仮にそのようなデータがあれば、日本政府がこれからどんな判断をするか、どんな戦略を取るか容易にAIは推論できてしまうだろう。
もちろん断ったという話だが、そのくらい、実はインターネットに公開されていないデータには価値があるということだ。
社内で死蔵されているデータを活用して、独自のAIシステムを作り、マネタイズするチャンスは、実は誰にでもある。アイデア次第で日本はAIシステムの覇権を取ることができるようになるだろう。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら