東洋経済オンラインとは
政治・経済・投資 #野口悠紀雄「経済最前線の先を見る」

警告「ChatGPTを信じる人」が破滅する明快な理由 生成系AIは使い方によっては有害になりうる

7分で読める
2/4 PAGES

AIの出力が信用できないことは、しばしば議論される。ただ、その理由として、「学習に用いたデータの質が問題だから」と言われる。あるいは、間違った情報を意図的に流して世論調査を操作するといった危険が指摘される。

もちろん、そうした問題もありうる。しかし、現実に生じている問題は、そうした「高度の」問題ではなく、そのはるか以前の初歩的なものだ。学習したデータの大部分は正しい情報だろうが、ChatGPTは、それらと誤った情報の区別ができない。あるいは重要な情報とそうでない情報の区別ができないのだ。

怪しげな2次データを参照している場合も

例えば、Bingは参照しているサイトのURLを示すが、経済データについて見ると、政府などの一次データサイトではなく、怪しげなサイトにある2次データを参照している場合がしばしばある。

経済データの分析にあたっては、どこで信頼できる情報が得られるかを知っていることが重要なノウハウだ。しかし、AIにはそのような判別ができない。この点から言えば、従来型の検索エンジンの方がはるかに信頼できる情報源だ。

ただし、検索エンジンで統計データを得るのは面倒だ。示されているサイトのどこに目的のデータがあるのかわからない。データを見つけても、処理しにくい形で示してあることが多いので、さまざまな加工が必要になるなどの問題がある。

それに対して、Bingなどの検索エンジンは、知りたい情報を直接に教えてくれる。また、「表の形で示せ」というと、見やすい表の形で示してくれる。このため、すぐに知りたいデータがわかるので、利用したい誘惑にかられる。

しかし、その誘惑に負けてはいけない。

次ページが続きます:
【統計データの出所を明確にする】

3/4 PAGES
4/4 PAGES

こちらの記事もおすすめ

あなたにおすすめ

政治・経済・投資

人気記事 HOT

※過去1週間以内の記事が対象