INDEX
ユーザーが何も操作していないのに、AIが勝手に受信トレイの情報を外部に送信してしまう。原因は、AIだけが読み取れる「隠された指示」が仕込まれた1通の悪意あるメールのみ――。
これは、2025年にChatGPTの連携機能で実際に実証された「ShadowLeak」という脆弱性を悪用したサイバー攻撃のシナリオです。画面上に異常は一切表示されないため、人間が被害に気づくことは困難です。同種の脆弱性はMicrosoft 365 Copilotなどほかのサービスでも次々と報告されています。
これまでの生成AIは、画面の中で質問に答える存在であり、リスクの中心は「何を出力するか」――誤情報の生成や、機密情報の漏洩でした。しかし、AIエージェントはAPIを通じて社内システムやSaaSと接続され、メールの送信、ファイルの読み書き、データベースの操作まで自律的に実行します。AIが「行動する存在」に変わったことで、リスクも「何をするか」に変わりました。
迫り来る「AIエージェント化」の波と対策の遅れ
NRIセキュアが日米豪の企業を対象に実施した「企業におけるサイバーセキュリティ実態調査2025」によれば、日本企業の生成AI利用率は、前年の65.3%から83.2%へと急増しました。
しかしその活用用途を見ると、日本は依然としてチャットツールなどの「人間による利用」が中心です。一方でアメリカやオーストラリアでは、すでに過半数の企業が「外部APIを活用してシステムに生成AIを組み込む」という、発展的なフェーズへ移行しています。
次ページが続きます:
【62.4%が「未対策」の衝撃】
