東洋経済オンラインとは
キャリア・教育 #「何回説明しても伝わらない」はなぜ起こるのか?

自信満々に断言されると嘘でも信じてしまう理由 生成AIの「もっともらしい」誤回答にも要注意

7分で読める
  • 今井 むつみ 慶應義塾大学名誉教授、今井むつみ教育研究所代表
2/5 PAGES
3/5 PAGES
4/5 PAGES

たとえ両者に悪意がなかったとしても、互いが自分の「記憶」に基づいて「ぶつけられた」「ぶつけていない」と主張したら、議論が平行線をたどるのは当然です。

まして一方に悪意があってより強固に主張をすれば、もう一方はその主張を受け入れてしまうかもしれません。

記憶の曖昧さを知った皆さんに、同じような災難が降りかかりませんように。

生成AIの「もっともらしさ」に騙されない

2023年は、生成AIがトレンドとなりました。日本語など、日常的に使う言語で質問をすると、まるで人間が答えているかのように、自然な文章で回答してくれます。こうした新しい技術は、使い方によっては大変便利なものです。

ただ、ChatGPTをはじめとする生成AIは、内容的に間違った答えを返すことがかなり頻繁にあります。間違いのレベルは様々です。

ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識が溢れています。専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、ときに誤った答えを生成してしまうのは必然のことなのです。

この例として非常に興味深いお話を、弁理士をされているSさんから聞きました。

Sさんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、最近、クライアントから法的に間違った主張を堂々とされることが増えたといいます。

そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。

次ページが続きます:
【ChatGPTが「でっち上げた」誤回答】

5/5 PAGES

こちらの記事もおすすめ

あなたにおすすめ

キャリア・教育

人気記事 HOT

※過去1週間以内の記事が対象