生成AI活用、「ルールを設けていても」情報漏洩が起きる3つの落とし穴…社内でただ注意喚起をしても「効果がない」理由

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
PCでAIと対話するイメージ
もはや当たり前になった生成AI。情報漏洩の危険性があるのは常識だが、具体的にどう漏れるのか。そしてどう対策すべきか(画像:Anastassiya Bezhekeneva / PIXTA)

生成AIは、いまや一部の専門職だけのものではありません。営業、企画、マーケティング、人事など、さまざまな現場で仕事を速く進められ、業務の負担を減らせる手段として日常的に使われ始めています。

サイバー攻撃やセキュリティの最新動向など、その他の関連記事はこちら

生成AIは生産性向上や人材不足への対応策として注目される一方、組織が現場での利用実態を十分に把握できず、どのような基準で利用を管理すべきかが曖昧になりやすい。

仮にルールを定めていても、曖昧な部分があると抜け穴になってしまうのです。

生成AIを巡るリスクというとサイバー攻撃を想像しがちですが、実際にはごく普通の業務の延長線上で、社内情報が外に出てしまうケースがほとんどです。では、生成AI活用によって社内情報が漏洩してしまう3つのルートと、対策のヒントをお伝えします。

ルート①「善意の入力」社員は仕事を終わらせたいだけ

最も起こりやすいのが、社員が日常業務の延長で生成AIに情報を入力してしまうケースです。

次ページ「ツールの外部性」拡張機能という隠れた経路
関連記事
トピックボードAD
ビジネスの人気記事