ChatGPT、「算数」より「作文」が得意な納得の仕組み 『ChatGPTの頭の中』著者、ウルフラム氏に聞く

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ChatGPTの「頭の中」については、未知の部分が多い(写真:JYPIX / PIXTA)
対話型AI、ChatGPTを搭載したアプリの登場や、企業内での活用がいよいよ本格的に進んでいる。
一方、その仕組みに関しては未知な部分が多い。なぜこれほど生身の人間に近い言葉を生み出すことができるのか。回答にウソが混じる「ハルシネーション」はなぜ起こってしまうのか。
アメリカのインターネット・ソフトウェア企業、ウルフラム・リサーチの創業者で、『ChatGPTの頭の中』(早川書房)を書いたスティーブン・ウルフラム氏に、ChatGPTの技術的な謎について聞いた。

「幻覚」をなくす方法はある?

ーーChatGPTを活用するうえで、もっともらしい嘘をつく「ハルシネーション(幻覚)」が課題になっています。

(次に来るのが確からしい単語を統計的に出力するChatGPTにおいて)ハルシネーションは、統計的には正しくとも事実関係として正しくない場合に起こる。

スティーブン・ウルフラム/理論物理学者。1959年ロンドン生まれ。理論物理学者。1980年カリフォルニア工科大学で理論物理学博士号を取得。1987年に数式処理システム「Mathematica」や質問応答システム「Wolfram|Alpha」の開発で知られるソフトウェア開発企業「ウルフラム・リサーチ」を創業、現在もCEOを務める。映画『メッセージ』(2016)では異星人の使用する文字言語の解析や、恒星間航行に関する科学考証を担当(写真:著者提供)

たとえば「鳥が月に向かって飛んだ」という文章について考えてみよう。

鳥が飛ぶこと、月が空にあることはそれぞれ理にかなっているが、鳥が月に向かって飛ぶことは実際には起こり得ない。実際に何が起こるかを知るためには、今のChatGPTが持っている言語の統計に関する情報だけでは不十分だ。

ChatGPTが言語について学習するとき、学んでいるのは言葉をどのように組み合わせるかであって、それが事実かファンタジーかを知ることは別の話。世界についてのより深い理解を必要とする問題だ。

私たちは計算言語である「Wolframウルフ(ウルフラム)言語」のようなものでこれを構築しようとしてきたが、ウェブ上の訓練だけで完璧にできるものではない。

次ページチャットGPTの創造力の源泉とは?
関連記事
トピックボードAD
ビジネスの人気記事