以上の実験からわかるのは、生成系AIを用いて統計データを取得することは、現段階では無理ということだ。データがあるサイトやページを指定しても、このような状態だ。ましてや、統計のあるサイトを指定もせずに、単に目的の数字だけをBingやBardに尋ねても、正しい答えは得られないと考えるべきだろう。
要約や翻訳を頼む場合にも注意が必要
以上で述べたことは、統計データの取得に限った問題ではない。
生成系AIは、文章の要約や翻訳をやってくれる。これを知ったとき、私は大変便利になったと思った。とくに、インターネット上の記事を、この方法で簡単に読めるようになると思った。
しかし、統計データに関して上のような問題があるのだから、記事一般についても同じ問題があるはずだ。
実際にやってみると、そのとおりであることがわかった。
第一に、記事を厳密に指定しないと、間違った記事を読むことがある。同じサイトにある別の記事など、指示したのとは違う記事を読んでしまう場合もある。URLやタイトルだけを示すと、こうした事故がおきやすい。
URLと記事のタイトルの両方を示せば、指示した記事を読んでくれる場合が多いように思われるが、必ずそうしてくれるかどうかは、わからない。
要約を頼むと、正しい記事に書いてあることに関連した内容が出てくるので、まったく見当違いのことをやっているのではないと思うのだが、本当に目的の記事を読んだのかどうかは疑問だ。どうもおかしいと感じるときがある。きちんと読んでおらず、適当な内容をでっち上げている場合もあるように思う。
いかにもそれらしい内容なので、騙されてしまう危険がある。
仮に生成系AIが記事を正確に読んでくれれば、記事のURLとタイトルを示すだけで、その要約や翻訳を頼めるので、非常に便利だ。しかし、現在では、誤った記事を読んでしまうリスクのほうが大きいと思われる。
つまり、生成系AIは、インターネット上の情報を読むのだが、正しく読んでいない場合がある(あるいは、そうした場合のほうが多い)ということになる。
もし答えがまったく見当違いであれば、間違っていることがわかる。しかし、出力するのは、いかにもそれらしき内容だ。だから、多くの人は信じてしまうだろう。
もちろん、検索エンジンは、これに注意を発している。Bingは「驚きや間違いが起きる可能性があります」と言っているし、Bardは「生成される情報は不正確または不適切な場合があります」としている。だから、問題が起こった場合の責任は、BingやBardの側にあるのではなく、利用者の側にある。
無料会員登録はこちら
ログインはこちら