【悲報】AIがサイバー攻撃者を「最強」にしてしまった!? 《偽社長の電話で億を奪われる…》防御側もAIを活用しないと"詰む"理由
フィシングと同様、生成AIによって言語の障壁が取り払われた日本が、このような詐欺で狙われるリスクが高まっている。
生成AIを便利に使いつつ、情報漏洩を防ぐには
ChatGPTなどの生成AIサービスを、アイデア出しや議事録の要点整理、報告書の下書きなどに使っている人も多いだろう。その際、本来機密であるべき社内情報や重要なプロジェクトの資料、顧客や取引先の固有名詞などが入った情報を悪気なくプロンプトに入力していないだろうか。
サービスのただし書きにも書かれているが、プロンプトで入力された情報は生成AIの学習に利用されることで、他人に機密情報が漏れる可能性がある。
便利すぎるがゆえに、すでに顕在化しているこのリスクを防止するため、企業は早急に生成AIの利用規定を作って従業員教育を行い、ガバナンスの確保に取り組む必要がある。
具体的には、社外秘情報の入力禁止や除外、利用可能とする外部の生成AIサービスの選定、生成AIを使う未承認のアプリやプラグインの利用禁止などだ。
外部の生成AIの利用を規制する代わりに、生成AI各社が提供している学習済みの生成AIモデル(LLM:大規模言語モデル)と、自社の社内情報を読み込ませたデータベースでRAG(検索拡張生成)を構築して、社員向け専用の生成AIアプリケーションとして使ってもらうのも、有効な機密情報漏洩対策になるだろう。
他方で、生成AIベンダーが自社のLLMの学習を行う際の情報収集活動が社会問題を生みつつある。情報収集は検索エンジンと同様、スクレイパーという種類のボット(自動化プログラム)によって行われている。その情報源となる記事やデータなどのコンテンツを掲載するサイトでは、ボットの高頻度のアクセスによってサーバーの増強を余儀なくされている。
問題はそれだけにとどまらない。生成AIは、複数のサイトから収集した情報を要約して利用者に示す。最近では検索エンジンのトップにもAIが生成したまとめ情報が表示されるようになった。
利用者には非常に便利な機能だが、情報源のコンテンツを掲載しているオンラインメディアは記事の脇に表示される広告費が主な収入源であり、消費者がまとめ情報を読んで満足してしまうと、ネット広告によるビジネスモデルが崩壊するおそれがある。
無料会員登録はこちら
ログインはこちら