昨今の新人研修の現場を見わたすと、象徴的な光景がある。受講者にプログラミングのコーディングや、論理的な文書作成の演習を課すと、これまでにない圧倒的なスピードで成果物が提出されるのだ。一瞬、ものすごく優秀な新人がそろっているように錯覚してしまう。
しかし、提出された成果物に対して講師が「なぜこのコードの構成になったの?」「この表現の意図は?」と口頭で確認すると、途端に言葉に詰まり、しどろもどろになる受講者が続出するのだ。
それもそのはず。彼らは「AIが出したものは正しい」と信じ、そのままコピペしているだけだからだ。この状態をうっかり見過ごし、実務の現場に配属してしまうと、どのようなトラブルを引き起こすのか。実際に企業が「AIコピペ新人」に頭を抱える主な理由は以下の3つだ。
「AIコピペ新人」が抱える3つのリスク
AIは、もっともらしい「正解風の回答」を数秒で出力する。しかし、新人の多くは、その中身が本当に正しいかどうかを判断する技術的・論理的なベースを持っていない。AIの回答をそのまま提出し、たまたまその場ではエラーが出なかったとしても、本人は「なぜ動いているのか」をまったく説明できない。これが実務であれば、後から不具合が起きた際、原因特定ができずプロジェクト全体を崩壊させるリスクに直結する。
研修やプライベートでは自由にAIを使えても、実務の現場では顧客のセキュリティ要件などにより、AIの利用が強く制限されているケースは依然として多い。「困ったらAIに聞く」という進め方に慣れきった新人は、自力で仕事を進めるための「ベースとなる知識やスキル」が発達しておらず、「AIという魔法のツール」を取り上げられた瞬間に無力となってしまう。
これが企業にとって最も恐ろしいリスクだ。セキュリティリテラシーの低い新人が、無料版の生成AIツールに、顧客の機密情報や自社のソースコードを安易に入力してしまうことにより発生する「情報漏洩」である。
多くの新人は、無料のAIツールへの入力が「学習データへの転用」という形で全世界へ公開されるリスクを孕んでいることを、肌感覚として理解していない。
業務効率化を急ぐあまり、顧客の機密データをAIに打ち込んでしまうと、損害賠償レベルの不祥事へと発展しかねない。この恐ろしさは、新人に対し教育するだけでなく、組織として機能制限をかけておく必要がある。
次ページが続きます:
【「介在価値ゼロ」の人間は淘汰される】
