AIも間違えた2026共通テストの問題。生成AIが得意の数学で満点を取れなかった理由を東大院生が解説

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
2026共通テストで最も難しかった問題をAIも間違えました(写真:ダイ / PIXTA)
2026共通テストで最も難しかった問題をAIも間違えました(写真:ダイ / PIXTA)
高度に発達した生成AIですが、2025年12月にローンチされた最新版に2026年の共通テストを解かせてみたところ、満点を取ることができませんでした。東京大学大学院理学系研究科物理学専攻の筆者がその理由を解説します。
著者フォローをすると、連載の新しい記事が公開されたときにお知らせメールが届きます。

アメリカの数学オリンピック問題の正答率は100%

今や私たちの生活に欠かせない存在となりつつあるAI。

AIの進化はすさまじく、たった1年でも大きくその性能を向上させています(過去記事『「ChatGPTが東大入試解いてみた」驚く結果の中身』)。

2025年11月にGoogleがGeminiの新モデルである「Gemini 3 Pro」を、同年12月にはOpenAIがChatGPTの新モデルである「GPT‑5.2」を、ローンチしました。

特にGPT-5.2はコーディングや数学などで高い性能を発揮します。アメリカの数学オリンピック(AIME)の問題を解いた例をみてみましょう。

2025年1月モデルでの正答率は最大で87.3%、11月モデルでは94.0%まで上昇。そして12月モデルのGPT‑5.2 Thinkingでは、2025AIMEの問題を用いてなんと100%の解答ができたと報告されています。

では、これだけ推論力に特化した新しいモデルのChatGPTを日本の教育現場で生かすことはできるのでしょうか。例として、先日行われた共通テストの数学の問題をChatGPT-5.2に解かせてみることにします。

次ページ点数は東大受験生の平均値くらい
関連記事
トピックボードAD
キャリア・教育の人気記事