生成AIで「ググる」が終焉し「コパる」へ移行の必然 2024年に生成AIを活用する「最大のリスク」とは

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

さて、このような3段階の利用法を考えていくと、2024年の仕事の仕方は生成AIの活用で大きく変わることはイメージできそうですが、リスクはどこにあるのでしょうか?

2024年から2025年にかけての生成AIの最大のリスクは、誤情報とフェイク情報です。最近、いわゆる専門家の方と生成AIについて議論をしていてしばしば耳にする話なのですが、最近どうも「間違った知識を信じ込んでいる素人顧客」が増えているのだそうです。

症状はさまざまですが、たとえば「この工事にこんなにお金がかかるはずがない」(工法が違うので実際は費用がかかる)、「法律上、こういうことができるはずだ」(専門家の知識では法律上それはできない)、「こんないいやり方があるのに専門家なのに知らないのか?」(それたくさん訴訟になっています)など、共通点としては顧客が間違った深い知識を持っているという症状です。

誤情報や意図的に誤った情報を流すフェイク情報は、生成AI全体の抱える現在進行形の課題なので、こういった現象はこれからさらに拡大することが予想できます。

新入社員がベテランと同じ情報を使う恐ろしさ

実は生成AIを活用した働き方の最大の課題はこの点です。新入社員でもベテラン社員のように仕事ができるようになることが利点だとすれば、ベテラン社員でないと正誤の判定がわからない情報を新入社員が使うようになるというのが生成AIの最大の欠点だというとわかりやすいでしょうか。

このリスクを回避するためにはどうすればいいのでしょうか? 一言でまとめると、生成AIの活用で無理してタイパや生産性を追求しすぎないことです。生成AIの本格導入で世界がどう変わっていくのか、詳しい未来予測については著者の最新作「『AIクソ上司』の脅威」でも解説しています。

ある程度、コパってみてわかったようなつもりになったら、きちんと先輩や専門家に尋ねて「それでだいたい正しいかどうか?」を確認する。ないしは生成AIに報告書の下書きや議事録の要約を書かせたら、それが正しいかどうかをきちんと時間をかけてチェックする。

そのような仕事の習慣が守れる人と省略してしまう人で、2024年は本当の意味での仕事の生産性が大きく変わるかもしれませんね。

鈴木 貴博 経済評論家、百年コンサルティング代表

著者をフォローすると、最新記事をメールでお知らせします。右上のボタンからフォローください。

すずき たかひろ / Takahiro Suzuki

東京大学工学部物理工学科卒。ボストンコンサルティンググループ、ネットイヤーグループ(東証マザーズ上場)を経て2003年に独立。人材企業やIT企業の戦略コンサルティングの傍ら、経済評論家として活躍。人工知能が経済に与える影響についての論客としても知られる。著書に日本経済予言の書 2020年代、不安な未来の読み解き方』(PHP)、『仕事消滅 AIの時代を生き抜くために、いま私たちにできること』(講談社)、『戦略思考トレーニングシリーズ』(日経文庫)などがある。BS朝日『モノシリスト』準レギュラーなどテレビ出演も多い。オスカープロモーション所属。

この著者の記事一覧はこちら
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ビジネスの人気記事