生成系AIは、ウェブの数字を正しく読めない
前回(警告「ChatGPTを信じる人」が破滅する明快な理由)、生成系AI(用語解説)の出力を信じるのは、極めて危険だと述べた。そこでは、ニューヨークの弁護士がChatGPTから得た虚偽の判例を裁判で用いた事件を引用した。これはChatGPTの出力をそのまま使った例だ。
それ以外の使い方をしても、同じような問題が起きる。特に問題となるのは、ウェブサイトにある記事などを利用する場合だ。
前回は、統計のデータを読むことを考えた。生成系AIを用いた検索エンジンであるBingやBardは、インターネットの統計サイトを開き、そこにある統計データを教えてくれる。しかし、正しく読まずに、間違って読む。
前回述べた例だけではない。その後も、対象サイトを変え、指定の方法を変え、何度も実験してみた。しかし、ことごとく失敗。
ただし、例外が1回だけあった。それは消費者物価指数のサイトにある数字をBardが正しく読んだことだ。ただし、このとき指定したページには、数字が6個しかない。そのうちの1個を読んでほしいと指示しただけのことだ。だから、正しい答えが返ってきても当然。人間なら、小学生でもできる。
繰り返すが、私が正しい答えを得たのは、このときだけだ。なお、このとき、Bingは間違った答えを出した。
無料会員登録はこちら
ログインはこちら