警告「ChatGPTを信じる人」が破滅する明快な理由 生成系AIは使い方によっては有害になりうる

✎ 1〜 ✎ 95 ✎ 96 ✎ 97 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

AIの出力が信用できないことは、しばしば議論される。ただ、その理由として、「学習に用いたデータの質が問題だから」と言われる。あるいは、間違った情報を意図的に流して世論調査を操作するといった危険が指摘される。

もちろん、そうした問題もありうる。しかし、現実に生じている問題は、そうした「高度の」問題ではなく、そのはるか以前の初歩的なものだ。学習したデータの大部分は正しい情報だろうが、ChatGPTは、それらと誤った情報の区別ができない。あるいは重要な情報とそうでない情報の区別ができないのだ。

怪しげな2次データを参照している場合も

例えば、Bingは参照しているサイトのURLを示すが、経済データについて見ると、政府などの一次データサイトではなく、怪しげなサイトにある2次データを参照している場合がしばしばある。

経済データの分析にあたっては、どこで信頼できる情報が得られるかを知っていることが重要なノウハウだ。しかし、AIにはそのような判別ができない。この点から言えば、従来型の検索エンジンの方がはるかに信頼できる情報源だ。

ただし、検索エンジンで統計データを得るのは面倒だ。示されているサイトのどこに目的のデータがあるのかわからない。データを見つけても、処理しにくい形で示してあることが多いので、さまざまな加工が必要になるなどの問題がある。

それに対して、Bingなどの検索エンジンは、知りたい情報を直接に教えてくれる。また、「表の形で示せ」というと、見やすい表の形で示してくれる。このため、すぐに知りたいデータがわかるので、利用したい誘惑にかられる。

しかし、その誘惑に負けてはいけない。

次ページ統計データの出所を明確にする
関連記事
トピックボードAD
政治・経済の人気記事