ChatGPTなどが誤った答えを出すこと自体は、かなり広く知られるようになった。ただし、多くの人は、それは最近の事態に関するものであり、勉強の対象になっているような知識については、関係ないと思うだろう。
実際、前記の記事で紹介したアンケート調査(教育関連のオンライン雑誌Intelligent.comが6月8日に公表した調査結果)においても、どの科目に使っているかという質問に対して、まず数学、そして化学や生物学などのハードサイエンスについての利用が挙げられている。
これらについての知識はすでに確立されたものであり、ChatGPTもそれらを学習しているはずだから、間違った答えを出すことはないだろうと多くの人が考えがちだ。
しかし、実際にはそうではない。
円周率πが3.05より大きい理由→ChatGPTの説明は?
数学の問題についてもそうだ。例えば、「円周率πは3.05より大きい数字であることを証明せよ」という問題がある。これは2003年に東京大学の入学試験で出題され、さまざまなところで引用される有名な問題だ。
この問題をChatGPTに解かせたところ、次のような答えが返ってきた。「円周率πの値は3.1415……であり、これは確立された知識です。この値が3.05より大きいことは明らかです」。この答えは、形式論理的に言えば、確かに間違っていない。しかし、入試でこのように書いたら、おそらく0点だろう。
そこで、「円に内接する正多角形の辺の合計で近似するという方法(アルキメデスの方法)を用いて証明してください」と指摘したところ、正六角形を用いた証明を提出した。しかし、直径と半径を取り違えるという初歩的なミスを犯した。
この誤りを指摘し、正十二角形でやれば答えが得られると誘導したところ、正しい答えを出した。従って、ChatGPTがこの問題を解けないわけではない。しかし、誘導しないかぎり、全く不十分な答えだった。
また、ごく初等的な問題を間違える場合もある。例えば、ChatGPTは、27は素数だと言ったことがある。連立方程式を解かせたら間違った答えを出したこともある。
無料会員登録はこちら
ログインはこちら