ChatGPTに依存する人がわかっていない「危険性」 AIの「幻覚」という厄介な問題 

✎ 1〜 ✎ 96 ✎ 97 ✎ 98 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
生成系AIに安易に依存するのは、大変危険である(写真:show999/PIXTA)
生成系AIにインターネット上の情報を読ませると、誤読することが多い。それを用いた出力は正しい情報と似ているので、正しいかどうかの判別が難しい。安易に依存すると、大変危険だ。
昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第97回。

生成系AIは、ウェブの数字を正しく読めない

前回(警告「ChatGPTを信じる人」が破滅する明快な理由)、生成系AI(用語解説)の出力を信じるのは、極めて危険だと述べた。そこでは、ニューヨークの弁護士がChatGPTから得た虚偽の判例を裁判で用いた事件を引用した。これはChatGPTの出力をそのまま使った例だ。

それ以外の使い方をしても、同じような問題が起きる。特に問題となるのは、ウェブサイトにある記事などを利用する場合だ。

前回は、統計のデータを読むことを考えた。生成系AIを用いた検索エンジンであるBingやBardは、インターネットの統計サイトを開き、そこにある統計データを教えてくれる。しかし、正しく読まずに、間違って読む。

前回述べた例だけではない。その後も、対象サイトを変え、指定の方法を変え、何度も実験してみた。しかし、ことごとく失敗。

ただし、例外が1回だけあった。それは消費者物価指数のサイトにある数字をBardが正しく読んだことだ。ただし、このとき指定したページには、数字が6個しかない。そのうちの1個を読んでほしいと指示しただけのことだ。だから、正しい答えが返ってきても当然。人間なら、小学生でもできる。

繰り返すが、私が正しい答えを得たのは、このときだけだ。なお、このとき、Bingは間違った答えを出した。

次ページ目的の数字だけを尋ねても正しい答えは得られない
関連記事
トピックボードAD
政治・経済の人気記事