生成AIで「ググる」が終焉し「コパる」へ移行の必然 2024年に生成AIを活用する「最大のリスク」とは
さて、このような3段階の利用法を考えていくと、2024年の仕事の仕方は生成AIの活用で大きく変わることはイメージできそうですが、リスクはどこにあるのでしょうか?
2024年から2025年にかけての生成AIの最大のリスクは、誤情報とフェイク情報です。最近、いわゆる専門家の方と生成AIについて議論をしていてしばしば耳にする話なのですが、最近どうも「間違った知識を信じ込んでいる素人顧客」が増えているのだそうです。
症状はさまざまですが、たとえば「この工事にこんなにお金がかかるはずがない」(工法が違うので実際は費用がかかる)、「法律上、こういうことができるはずだ」(専門家の知識では法律上それはできない)、「こんないいやり方があるのに専門家なのに知らないのか?」(それたくさん訴訟になっています)など、共通点としては顧客が間違った深い知識を持っているという症状です。
誤情報や意図的に誤った情報を流すフェイク情報は、生成AI全体の抱える現在進行形の課題なので、こういった現象はこれからさらに拡大することが予想できます。
新入社員がベテランと同じ情報を使う恐ろしさ
実は生成AIを活用した働き方の最大の課題はこの点です。新入社員でもベテラン社員のように仕事ができるようになることが利点だとすれば、ベテラン社員でないと正誤の判定がわからない情報を新入社員が使うようになるというのが生成AIの最大の欠点だというとわかりやすいでしょうか。
このリスクを回避するためにはどうすればいいのでしょうか? 一言でまとめると、生成AIの活用で無理してタイパや生産性を追求しすぎないことです。生成AIの本格導入で世界がどう変わっていくのか、詳しい未来予測については著者の最新作「『AIクソ上司』の脅威」でも解説しています。
ある程度、コパってみてわかったようなつもりになったら、きちんと先輩や専門家に尋ねて「それでだいたい正しいかどうか?」を確認する。ないしは生成AIに報告書の下書きや議事録の要約を書かせたら、それが正しいかどうかをきちんと時間をかけてチェックする。
そのような仕事の習慣が守れる人と省略してしまう人で、2024年は本当の意味での仕事の生産性が大きく変わるかもしれませんね。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら