ChatGPT、「算数」より「作文」が得意な納得の仕組み 『ChatGPTの頭の中』著者、ウルフラム氏に聞く
対話型AI、ChatGPTを搭載したアプリの登場や、企業内での活用がいよいよ本格的に進んでいる。
一方、その仕組みに関しては未知な部分が多い。なぜこれほど生身の人間に近い言葉を生み出すことができるのか。回答にウソが混じる「ハルシネーション」はなぜ起こってしまうのか。
アメリカのインターネット・ソフトウェア企業、ウルフラム・リサーチの創業者で、『ChatGPTの頭の中』(早川書房)を書いたスティーブン・ウルフラム氏に、ChatGPTの技術的な謎について聞いた。
「幻覚」をなくす方法はある?
ーーChatGPTを活用するうえで、もっともらしい嘘をつく「ハルシネーション(幻覚)」が課題になっています。
(次に来るのが確からしい単語を統計的に出力するChatGPTにおいて)ハルシネーションは、統計的には正しくとも事実関係として正しくない場合に起こる。
たとえば「鳥が月に向かって飛んだ」という文章について考えてみよう。
鳥が飛ぶこと、月が空にあることはそれぞれ理にかなっているが、鳥が月に向かって飛ぶことは実際には起こり得ない。実際に何が起こるかを知るためには、今のChatGPTが持っている言語の統計に関する情報だけでは不十分だ。
ChatGPTが言語について学習するとき、学んでいるのは言葉をどのように組み合わせるかであって、それが事実かファンタジーかを知ることは別の話。世界についてのより深い理解を必要とする問題だ。
私たちは計算言語である「Wolframウルフ(ウルフラム)言語」のようなものでこれを構築しようとしてきたが、ウェブ上の訓練だけで完璧にできるものではない。
トピックボードAD
有料会員限定記事
ビジネスの人気記事
無料会員登録はこちら
ログインはこちら