ChatGPTを用いて学習を進めることは、非常に楽しく、また便利な方法だ。しかし、その回答には誤りが含まれている可能性がある。したがって、このような学習方法を採用すると、誤った知識を身につけてしまう危険がある。これに対して警告を発することは、緊急の課題だ。昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第102回。
ChatGPTは誤った回答を出すことがある
ChatGPTなどの大規模言語モデルは、誤った回答を出すことがある。これは「ハルシネーション」と呼ばれる現象であり、深刻な問題だ。ChatGPTは2021年9月までのデータしか学習していないため、それ以降の事柄については答えられないはずだ。それにもかかわらず、答えを出すことがある。また、2021年9月以前の情報についても、頻繁に間違う(具体的な例は後述する)。
BingやBardなどウェブ検索を行うツールでは、間違いが少なくなると思われがちだが、実際には、これらを用いても頻繁に誤りが生じる。
ChatGPTはすでにさまざまな場面で広く利用されている。日本政府も国会答弁の作成などに利用するとしている。そうした利用が実際に行われるようになれば、大混乱が起きる可能性がある。
ChatGPTは、家庭教師としてすでに広く利用されている。本欄7月9日の記事で紹介したように、アメリカでは人間の家庭教師からChatGPTへの切り替えが急速に進んでおり、約4割の学生がこれを個人的な家庭教師として利用している。だから、誤った知識を学んでしまうという問題は、現実に存在する問題だ。
日本でも、かなりの学生が利用している可能性がある。したがって、これへの対処は、日本でも現実に緊急な課題だ。
無料会員登録はこちら
ログインはこちら