警告「ChatGPTを信じる人」が破滅する明快な理由 生成系AIは使い方によっては有害になりうる

✎ 1〜 ✎ 95 ✎ 96 ✎ 97 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ChatGPTなどの生成系AIとの適切な付き合い方とは(写真:Supatman/PIXTA)
ChatGPTなどの生成系AIは、どんな質問に対しても、答えを出してくれる。しかし、これを安易に信じて利用するのは、きわめて危険だ。ただし、賢い使い方をすれば、生成系AIは知的作業の強力なアシスタントとなる。
昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第96回。

ChatGPTを信じれば、破滅する

アメリカの弁護士がChatGPTの出力した判例を民事裁判の資料として使用したところ、虚偽のものであることが発覚し、問題となった。こんなことをする人がいるとは、信じられない。資格を剥奪されても当然だろう。いやその前に、こうした弁護士に仕事を依頼する人はもういないだろう。

この例からわかるように、生成系AIの出力結果を安易に信じて利用することの結果は、破滅的なものとなりうる。

生成系AIを用いる場合に最も重要なのは、その出力内容がまったくあてにならないとよく認識することだ。多くの人が、生成系AIは質問をすれば何でも正しく答えてくれる魔法の仕組みだと思っているが、それは間違いだ。

まず、ChatGPTは、2021年9月までのデータについてしか学習していない。だから、それ以降の出来事に関してはまったく無知だ。したがって、そこから最近の出来事についてデータや知識を得ようと思っても、元々できない。

それにもかかわらず、ChatGPTは、そうした問いに対して答えを提供する。例えば、「2023年のG7広島サミットで何が議論されましたか?」と聞けば、最もらしい答えを出力する。

この場合には、明らかに虚偽とわかるが、はっきり判別できない場合が多いので、注意が必要だ。

次ページAIは求める情報を直接に示すので、利用したい誘惑にかられる
関連記事
トピックボードAD
政治・経済の人気記事