自信満々に断言されると嘘でも信じてしまう理由 生成AIの「もっともらしい」誤回答にも要注意

✎ 1 ✎ 2 ✎ 3
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

たとえ両者に悪意がなかったとしても、互いが自分の「記憶」に基づいて「ぶつけられた」「ぶつけていない」と主張したら、議論が平行線をたどるのは当然です。

まして一方に悪意があってより強固に主張をすれば、もう一方はその主張を受け入れてしまうかもしれません。

記憶の曖昧さを知った皆さんに、同じような災難が降りかかりませんように。

生成AIの「もっともらしさ」に騙されない

2023年は、生成AIがトレンドとなりました。日本語など、日常的に使う言語で質問をすると、まるで人間が答えているかのように、自然な文章で回答してくれます。こうした新しい技術は、使い方によっては大変便利なものです。

ただ、ChatGPTをはじめとする生成AIは、内容的に間違った答えを返すことがかなり頻繁にあります。間違いのレベルは様々です。

ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識が溢れています。専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、ときに誤った答えを生成してしまうのは必然のことなのです。

この例として非常に興味深いお話を、弁理士をされているSさんから聞きました。

Sさんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、最近、クライアントから法的に間違った主張を堂々とされることが増えたといいます。

そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。

次ページChatGPTが「でっち上げた」誤回答
関連記事
トピックボードAD
キャリア・教育の人気記事