(2)公式に使える環境を整える
会社が承認した法人版のAIツール――法人向けChatGPT、Microsoft Copilot、Google Workspace連携のGeminiなど――を用意することだ。管理可能な環境があれば、社員は隠れて使う必要がなくなる。
(3)ガイドラインを作って周知する
「何を入力してはいけないか」
「どのツールを使っていいのか」
「問題が起きたときはどう報告するか」
を明文化し、全社員に周知する。ガイドラインがなければ、社員は善意で危険な行動をとり続ける。
(4)管理職への教育を最優先にする
冒頭の調査で示した通り、管理職のほうが意識が低い。「AIを使って仕事が速くなった」と喜んでいる管理職こそ、最初に教育すべき対象だ。ガイドラインを周知するだけでなく、管理職には個別具体的に教育すべきだろう。
「使わせない」から「安全に使わせる」へ
生成AIは使うべきだ。それは間違いない。問題はツールではなく、「会社が管理できる環境で使っているかどうか」だ。
個人アカウントで議事録をAIで作成するのは、会社の情報資産を外に持ち出しているのに近い。ここを経営者や管理職が軽く見るべきでない。最悪の場合、取引停止・契約解除・損害賠償につながる可能性もある。
実際、お客様情報や取引先の機密情報が外部AIに入力された場合、「実際に漏洩したか」以前に、「管理体制が甘い会社」と見られてしまう。大企業や官公庁、医療、金融、製薬との取引では、それだけで関係が終わることもある。
「え? 議事録をAIで作成しちゃダメなの?」
という疑問への答えはこうだ。会社が認めた環境で作るなら問題ない。個人アカウントで機密情報を入力して作るなら、それは会社にとって大きなリスクになりうる。この違いを、すべての社員と管理職が理解することが大事だ。
