自信満々に断言されると嘘でも信じてしまう理由 生成AIの「もっともらしい」誤回答にも要注意

✎ 1 ✎ 2 ✎ 3
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

そこでSさんが、ChatGPTに、

「出願したい特許と似たものが、すでに存在するか」

と質問をしたところ、実在しない事例を挙げて、「もっともらしく」返してきたといいます。いわば「ケースをでっち上げる」わけですね。アメリカと日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。

ここで問題となるのは、生成AIの返事の「もっともらしさ」です。先ほどの事故の事例の「言い切った者勝ち」のような現象が、ここでも起こり始めています。

ChatGPTは責任を負ってくれない

ただし、ChatGPTは、自身が生成した文章について、責任を負ってはくれません。それっぽい回答を信じてしまった人が責任を負うことになります。

『「何回説明しても伝わらない」はなぜ起こるのか? 認知科学が教えるコミュニケーションの本質と解決策』(日経BP)。書影をクリックするとアマゾンのサイトにジャンプします

こうしたことが起こりがちということもあり、また剽窃(ひょうせつ)などの問題と関連することもあり、企業でも学校でも、生成AIが出力したものをそのまま使用することは禁止されています。

でも例えば、まだ何が正しくて、何が正しくないかの判断がつかない子どもがChatGPTの答えを信じてしまい、取り返しのつかない誤りを犯してしまったときは、どうなるでしょうか。あるいは、その子どもから話を聞いた親が、信じてしまったら?

さらに恐ろしいのは、使用したときは「ChatGPTの間違った情報だ」と理解していても、後に似た情報に触れた際に、「この話はどこかで聞いたことがある」と偽情報の中身だけを想起してしまうケースも考えられることです。

誰しもに起こり得るこうした事態について、「思い込むほうが悪い」と言えるでしょうか。

今井 むつみ 慶応義塾大学環境情報学部教授

著者をフォローすると、最新記事をメールでお知らせします。右上のボタンからフォローください。

いまい むつみ / Mutsumi Imai

慶応義塾大学環境情報学部教授。1989年慶応義塾大学大学院博士課程単位取得退学。94 年ノースウェスタン大学心理学部Ph.D. 取得。専門は認知科学、言語心理学、発達心理学。主な著書に『ことばと思考』『学びとは何か─〈探究人〉になるために』『英語独習法』(すべて岩波新書)、『ことばの発達の謎を解く』(ちくまプリマー新書)など。共著に『言語の本質─ことばはどう生まれ、進化したか』(中公新書)、『言葉をおぼえるしくみ─母語から外国語まで』(ちくま学芸文庫)、『算数文章題が解けない子どもたち』(岩波書店)などがある。

この著者の記事一覧はこちら
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
キャリア・教育の人気記事