さらに問題となるのは、一度学習データとして利用された情報を、生成AIモデル(大規模言語モデル)から完全に取り除くことが極めて困難である点です。その結果、生成AIの出力に機密情報が含まれてしまう可能性があり、情報漏えいを防ぐことが非常に難しくなります。
次に、アウトプットに関するリスクです。
個人利用の生成AIでは、知的財産権の侵害や誤情報の生成といった問題にも注意が必要です。利用している生成AIが、どのようなデータを学習して構築されているのか、また学習データの使用許諾が適切に取得されているのかを、会社として把握することができません。
そのため、生成されたアウトプットが他社の著作物に類似していた場合や、誤った情報を含んでいた場合に、誰が責任を負うのかが不明確となり、コンプライアンス上の重大なリスクやレピュテーションリスクにつながる可能性があります。
このように、生成AI自体が内包するリスクに加え、個人利用の生成AIアプリは企業がリスクを管理できません。そのため、シャドーAIは、企業が真剣に対処すべき重要な課題だといえるでしょう。
中小企業に求められる生成AI利用の管理と対応策
ここまで見てきたとおり、シャドーAIは、企業活動に深刻な影響を及ぼす可能性があります。そのため、企業規模を問わず、組織として対策を検討することが急務となっています。
ここからは、中小企業が生成AIの利活用を進めるために押さえておくべき、責任あるガバナンス構築のポイントを解説します。
(1)枠組みの整理・構築
まず重要なのは、「管理すべきAIとは何か」を明確にし、従業員に周知することです。
AIのリスク管理の必要性を認識していても、「AI」の定義が曖昧なままの企業は少なくありません。AIは非常に広範な概念を含むため、たとえば従来から業務で使用している数理モデルをAIに含めるのかどうかなど、企業としての考え方を整理し明確化しておく必要があります。
そのうえで、企業としてのAI利活用の原則を策定し、管理対象となるAIの範囲を明確に定義します。
次に、AIガバナンスを担う主管部署および関係部署を定め、誰がどのような役割を担うのかを明文化(ポリシー化)します。
次ページが続きます:
【企業の規模による管理体制の違い】
