ChatGPTを信じれば、破滅する
アメリカの弁護士がChatGPTの出力した判例を民事裁判の資料として使用したところ、虚偽のものであることが発覚し、問題となった。こんなことをする人がいるとは、信じられない。資格を剥奪されても当然だろう。いやその前に、こうした弁護士に仕事を依頼する人はもういないだろう。
この例からわかるように、生成系AIの出力結果を安易に信じて利用することの結果は、破滅的なものとなりうる。
生成系AIを用いる場合に最も重要なのは、その出力内容がまったくあてにならないとよく認識することだ。多くの人が、生成系AIは質問をすれば何でも正しく答えてくれる魔法の仕組みだと思っているが、それは間違いだ。
まず、ChatGPTは、2021年9月までのデータについてしか学習していない。だから、それ以降の出来事に関してはまったく無知だ。したがって、そこから最近の出来事についてデータや知識を得ようと思っても、元々できない。
それにもかかわらず、ChatGPTは、そうした問いに対して答えを提供する。例えば、「2023年のG7広島サミットで何が議論されましたか?」と聞けば、最もらしい答えを出力する。
この場合には、明らかに虚偽とわかるが、はっきり判別できない場合が多いので、注意が必要だ。
無料会員登録はこちら
ログインはこちら