ChatGPTの悪用で「サイバー攻撃が進化」する必然 生成AI全体に共通する抜け道もあり対処が困難
ChatGPTの知名度や人気に便乗した脅威も身近に溢れている。時節や流行など、人々の関心を集める話題が狙われるのは常である。巷には生成AIを謳うアプリやサイトが乱立しているが、その中に悪意が潜んでいる可能性がある。出所不明のコンテンツに警戒し、不用意な利用は避けるべきである。
実際にこれまでもChatGPTを装ったマルウェアや偽サイトなどが複数確認されており、そうした経路で盗まれた可能性が高いChatGPTのログイン情報がアンダーグラウンドで多数販売されている状況を確認している。
また、生成AIのサービスでは会話履歴が記録されている場合があり、ログイン情報が盗まれると、履歴から個人情報などが流出する可能性もある。業務で使用している場合はさらに注意が必要なのは言うまでもない。ほかの会員サイトと同じログイン情報を決して使い回さないようにし、可能であれば履歴の無効化を推奨する。
AIの光と影の両面を均等に捉える姿勢が重要
ビジネスで生成AIを導入する際、とくに顧客向けのAIサービスを提供する場合においては、AIそのものがサイバー攻撃の対象になることを想定し、顧客情報等が漏洩しないか設計段階から適切な対策を講じることが必要である。
社内でAIを活用する際も、不正侵入によりAIに学習させるためのデータ自体が汚染されるリスクや情報漏洩に対する考慮が望まれる。リスク軽減のためには、多層防御やネットワーク分離と可視化、攻撃検知や監視の強化など、従来型のセキュリティ対策がまずは不可欠だ。
さらに社員のリテラシーを底上げし、AIの取り扱いに関する社内教育の徹底や、自社組織のみがアクセス可能なリソース上でAIのデータが完結するサービス、仕組みを取り入れるなどの対策も有用といえる。
個人情報保護法の改正により漏洩等の報告が義務化された今、サイバー攻撃は財務上の損失、風評被害、法的責任問題などにも直結する。信用や信頼を築くには長い時間が必要であるが、失うのは一瞬である。
それでも、AIのメリットを積極的に活用することがこれからのデジタル社会を生き抜くには重要であり、過度な恐れは得策ではない。AIの光と影の両面へ均等に目を向ける姿勢が求められる。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら