「πが3.14より大きい理由は」ChatGPTの驚愕回答 警告!ChatGPTで学習すると起きるヤバい事態

✎ 1〜 ✎ 101 ✎ 102 ✎ 103 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ChatGPTが間違った答えを出すことはないだろうと、多くの人が考えがちだが……(写真:JYPIX/PIXTA)

ChatGPTを用いて学習を進めることは、非常に楽しく、また便利な方法だ。しかし、その回答には誤りが含まれている可能性がある。したがって、このような学習方法を採用すると、誤った知識を身につけてしまう危険がある。これに対して警告を発することは、緊急の課題だ。昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第102回。

ChatGPTは誤った回答を出すことがある

ChatGPTなどの大規模言語モデルは、誤った回答を出すことがある。これは「ハルシネーション」と呼ばれる現象であり、深刻な問題だ。ChatGPTは2021年9月までのデータしか学習していないため、それ以降の事柄については答えられないはずだ。それにもかかわらず、答えを出すことがある。また、2021年9月以前の情報についても、頻繁に間違う(具体的な例は後述する)。

BingやBardなどウェブ検索を行うツールでは、間違いが少なくなると思われがちだが、実際には、これらを用いても頻繁に誤りが生じる。

ChatGPTはすでにさまざまな場面で広く利用されている。日本政府も国会答弁の作成などに利用するとしている。そうした利用が実際に行われるようになれば、大混乱が起きる可能性がある。

ChatGPTは、家庭教師としてすでに広く利用されている。本欄7月9日の記事で紹介したように、アメリカでは人間の家庭教師からChatGPTへの切り替えが急速に進んでおり、約4割の学生がこれを個人的な家庭教師として利用している。だから、誤った知識を学んでしまうという問題は、現実に存在する問題だ。

日本でも、かなりの学生が利用している可能性がある。したがって、これへの対処は、日本でも現実に緊急な課題だ。

関連記事
トピックボードAD
政治・経済の人気記事