ChatGPTに依存する人がわかっていない「危険性」 AIの「幻覚」という厄介な問題 

✎ 1〜 ✎ 96 ✎ 97 ✎ 98 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

以上の実験からわかるのは、生成系AIを用いて統計データを取得することは、現段階では無理ということだ。データがあるサイトやページを指定しても、このような状態だ。ましてや、統計のあるサイトを指定もせずに、単に目的の数字だけをBingやBardに尋ねても、正しい答えは得られないと考えるべきだろう。

要約や翻訳を頼む場合にも注意が必要

以上で述べたことは、統計データの取得に限った問題ではない。

生成系AIは、文章の要約や翻訳をやってくれる。これを知ったとき、私は大変便利になったと思った。とくに、インターネット上の記事を、この方法で簡単に読めるようになると思った。

しかし、統計データに関して上のような問題があるのだから、記事一般についても同じ問題があるはずだ。

実際にやってみると、そのとおりであることがわかった。

第一に、記事を厳密に指定しないと、間違った記事を読むことがある。同じサイトにある別の記事など、指示したのとは違う記事を読んでしまう場合もある。URLやタイトルだけを示すと、こうした事故がおきやすい。

URLと記事のタイトルの両方を示せば、指示した記事を読んでくれる場合が多いように思われるが、必ずそうしてくれるかどうかは、わからない。

要約を頼むと、正しい記事に書いてあることに関連した内容が出てくるので、まったく見当違いのことをやっているのではないと思うのだが、本当に目的の記事を読んだのかどうかは疑問だ。どうもおかしいと感じるときがある。きちんと読んでおらず、適当な内容をでっち上げている場合もあるように思う。

いかにもそれらしい内容なので、騙されてしまう危険がある。

仮に生成系AIが記事を正確に読んでくれれば、記事のURLとタイトルを示すだけで、その要約や翻訳を頼めるので、非常に便利だ。しかし、現在では、誤った記事を読んでしまうリスクのほうが大きいと思われる。

つまり、生成系AIは、インターネット上の情報を読むのだが、正しく読んでいない場合がある(あるいは、そうした場合のほうが多い)ということになる。

もし答えがまったく見当違いであれば、間違っていることがわかる。しかし、出力するのは、いかにもそれらしき内容だ。だから、多くの人は信じてしまうだろう。

もちろん、検索エンジンは、これに注意を発している。Bingは「驚きや間違いが起きる可能性があります」と言っているし、Bardは「生成される情報は不正確または不適切な場合があります」としている。だから、問題が起こった場合の責任は、BingやBardの側にあるのではなく、利用者の側にある。

次ページ「幻覚」という厄介な問題
関連記事
トピックボードAD
政治・経済の人気記事