「生成AI」今から活用したい人が知るべき驚く盲点 自分の考えを文章で書く「超アナログ能力」が必要
山本:なるほど。その生成AIが出てくるまでにはどんな背景があったのでしょうか。
栗原:生成AIが出てくる前の人工知能には「こういうことを聞いたら、こう答えなさい」とあらかじめ仕組んでおきましたが、その場合、研究者のほうが「あらかじめどういうことが起きるか」を予測できていないといけません。しかし、世の中では複雑で想定外のことが起こるので、あらかじめ用意した反応の仕方では対応することはできず、結果的に人工知能はなかなか臨機応変に動かなかったわけです。
一方で、人間がどうしてこんなに自由にものをしゃべれたり、適応的に動けたりするのかというと、必ずしも頭の中に蓄えた知識をいちいち参照しながらしゃべる内容を組み立てているわけではないからです。どちらかといえば、相手の発話に対してもっともらしい反応をその場その場で瞬間的に考えずに話しますよね。言葉が自然と湧き出るように。人工知能もそのようにしたほうがいいのではないか、ということで生成AIの開発につながるわけです。

生成AIはTransformer(トランスフォーマー)というグーグルの研究者らが2017年に発表した手法が土台であり、画像を生成するタイプなども含め、これら生成AIの基本的な仕組みは2017年から変わっていないのです。
にもかかわらず、ChatGPTのような高い能力を持つAIの開発に成功した要因はどこにあるのでしょうか?
それは「AIの大きさ(量)」だったのです。AIを構成するニューラルネットワークのサイズを極端に大きくしたら、突如AIの能力が急激に上昇し、流暢にしゃべりだしたというイメージです。
誰も想定してなかった能力の上昇
山本:もともとのAIは「あらかじめ人間が仕組んでおいたものの枠内」で考えていたのに対し、生成AIはその枠を超え始めているようなイメージを持ちました。人工知能の専門家の間では、大きなパラダイムシフトが起きたと認識されているのでしょうか。

栗原:パラダイムシフトだと思っています。複雑系という学問では「スケールすることによって、性質が大きく変わる」ことは当たり前の考え方なのですが、人工知能の分野でデータを学習するというとき、普通だったら、「データ量を2倍、3倍にすれば、性能も2倍、3倍分よくなる」と想像すると思います。
ところが今回起きたことは、学習データの量やAIの大きさを2倍、200倍、2万倍というふうに“べき乗則的”に大きくしていったのです。それでもずっとらちが明かなかったのが、200万倍ぐらいにしたら、急にストーンと突き抜けるように能力が上がったのです。これは誰も想定していませんでした。
その「突き抜ける」ことを初めて目の前で経験したのがグーグル(Google DeepMind)のエンジニアでした。何しろAIが急に流暢にしゃべりだして驚いたわけです(編集部註:その後、「AIが人類を滅ぼす可能性が高まっている」として、開発の中止を訴えるなどした)。