「AIを同僚として認識せよ」が新常識、3年後は<業務判断の15%>をAIが担う⁉︎AIエージェント時代のCIOに必要な"人事部長"としての責任
しかし、人間の従業員なら「この情報は私がアクセスすべきものではない」と判断できるものの、AIエージェントは与えられた権限の範囲内であれば、関連性があると判断したすべてのデータに自動でアクセスしてしまいます。夜中でも休日でも、必要な情報を持つシステムから自律的かつ継続的に情報を収集し続けるわけです。
アクセスするシステムは、人事データベース、顧客管理システム、財務データベースなど多岐にわたって考えられます。そこで、このリスクを従来のIT管理で予測し、AIエージェントのアクセス権限をタスク完了に必要な情報とデータのみに調整することが求められるのです。
もし、過剰な権限を持つエージェントがサイバー攻撃者に侵害されると、攻撃者の機密データへのアクセスに悪用されて、システム内で受け入れがたい移動の自由を与える可能性があります。さらに深刻なのは、侵害されたAIエージェントが接続されている他のAIエージェントにも影響を及ぼして、連鎖的な障害を引き起こす可能性もある点です。
AIエージェント管理の「3つの必須対策」
では、この「人工的な労働力」をどう管理すべきでしょうか。それには、以下の3つのアプローチがあります。
①最小権限アクセスの実装:AIエージェントが仕事をするために最小のアクセス権限がどこまでか評価することが重要です。CIOは、付与した権限以外のことを実行できないようにAIエージェントをコントロールしなければならず、導入段階から権限設定を調整する必要があります。
②「シャドーAI」の防止と可視化: Netskopeの調査によると、職場での生成AI使用の72%が、IT部門やセキュリティ部門の知らないところで行われています。AIエージェントの時代には、各部門がIT部門やセキュリティ部門の知らないところでAIエージェントを配備する「シャドーAI」問題が起きかねません。組織が把握していない「見えないAI同僚」が勝手に業務を始め、他のAIエージェントと連携して予想外の結果を生み出したり、アクセスすべきでないデータにアクセスしたりする可能性もあるのです。
③基盤モデルの統合管理:組織は会社全体に単一の生成AIモデルを配備することはしていますが、今後は異なる部門、業務、専門分野向けにそれぞれ設計されたAIエージェントの基盤のモデルを導入するケースも考えられます。CIOは、これらの異なるモデルと特定の課題を個別に検討し、それぞれに適切な安全対策を設計しながら、モデル同士がうまく連携する環境を確保する必要があります。
無料会員登録はこちら
ログインはこちら