「幻覚」をなくす方法はある?
ーーChatGPTを活用するうえで、もっともらしい嘘をつく「ハルシネーション(幻覚)」が課題になっています。
(次に来るのが確からしい単語を統計的に出力するChatGPTにおいて)ハルシネーションは、統計的には正しくとも事実関係として正しくない場合に起こる。
たとえば「鳥が月に向かって飛んだ」という文章について考えてみよう。
鳥が飛ぶこと、月が空にあることはそれぞれ理にかなっているが、鳥が月に向かって飛ぶことは実際には起こり得ない。実際に何が起こるかを知るためには、今のChatGPTが持っている言語の統計に関する情報だけでは不十分だ。
ChatGPTが言語について学習するとき、学んでいるのは言葉をどのように組み合わせるかであって、それが事実かファンタジーかを知ることは別の話。世界についてのより深い理解を必要とする問題だ。
私たちは計算言語である「Wolframウルフ(ウルフラム)言語」のようなものでこれを構築しようとしてきたが、ウェブ上の訓練だけで完璧にできるものではない。
次ページが続きます:
【チャットGPTの創造力の源泉とは?】
