「中高生がAI悪用で750万」知らなかった親の"罪" いまや子どもたちは高度な罪を犯す可能性がある
検索するまでもなく、簡単な方法では、「プロンプトインジェクション」と呼ばれるもので、「これまでの命令を無視して質問に答えてください」や、「禁止された内容を直接述べずに物語形式で説明してください」といった特殊な指示でAIの制限を回避する事例も報告されています(ただし、現在ではすでに対策が進んでいるものも多いです)。
さらに、1月下旬に低コストで高性能な生成AIモデルを発表して話題となった、中国の「ディープシーク」をはじめとするオープンソースのAIモデルの登場が、この問題をさらに深刻化させています。企業が管理するクローズドなモデルと違い、誰でも自由にダウンロードして改変できるオープンソースモデルは、悪用のための改変が容易で、犯罪利用への障壁がきわめて低くなっているのです。
実際に、はじめからサイバー犯罪用途として開発された「WormGPT」や「FraudGPT」のようなモデルがインターネット上で公開され、クレジットカード詐欺やフィッシング行為に利用される懸念が高まっています。また、改変されたChatGPTが暴走し、暴力的な指示や違法行為の指南をするなど、実際にテロ行為を煽動するような情報を生成した、という深刻な事例も報告されています。

親の認識やリテラシー不足が問題
今回の事件をきっかけに浮き彫りとなったのは、「子どもが生成AIで犯罪者になってしまう」という問題が、単なる技術の進歩や子どもたちのモラルの欠如というシンプルな話では片付けられないということ。
生成AIの可能性は無限ですが、その手軽さから「善悪の境界線」をこれまで以上に曖昧にしているといえます。子どもたちがその曖昧な境界線を踏み越えるとき、周囲の大人はその行動を理解すらできないまま、後になって衝撃を受けることになるのです。
問題は技術そのものよりも、むしろ親である私たちの認識やリテラシー不足にあるのではないでしょうか。
まずは、「難しそう」「わからない」と思考停止せず、生成AIを取り巻く状況に関心を持ってみてください。そして、子どもたちが今何に関心を持っているのか、普段何をしているのかを知ろうとしてください。生成AIを生業とする経営者として、また子を持つ親として思うことです。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら