週刊東洋経済 最新号を読む(5/16号)
東洋経済オンラインとは
キャリア・教育

情シス絶句…「AI議事録の何がダメなの?」"わかってない管理職"の怖い《シャドーAI》リスク 機密情報を入力した人は2割超

7分で読める
個人アカウントの生成AIを利用する。これが「シャドーAI」の大きな問題点だ(写真:mapo/PIXTA)
  • 横山 信弘 アタックス・セールス・アソシエイツ 代表取締役会長
2/4 PAGES
3/4 PAGES
4/4 PAGES

(2)公式に使える環境を整える

会社が承認した法人版のAIツール――法人向けChatGPT、Microsoft Copilot、Google Workspace連携のGeminiなど――を用意することだ。管理可能な環境があれば、社員は隠れて使う必要がなくなる。

(3)ガイドラインを作って周知する

「何を入力してはいけないか」
「どのツールを使っていいのか」
「問題が起きたときはどう報告するか」

を明文化し、全社員に周知する。ガイドラインがなければ、社員は善意で危険な行動をとり続ける。

(4)管理職への教育を最優先にする

冒頭の調査で示した通り、管理職のほうが意識が低い。「AIを使って仕事が速くなった」と喜んでいる管理職こそ、最初に教育すべき対象だ。ガイドラインを周知するだけでなく、管理職には個別具体的に教育すべきだろう。

「使わせない」から「安全に使わせる」へ

生成AIは使うべきだ。それは間違いない。問題はツールではなく、「会社が管理できる環境で使っているかどうか」だ。

個人アカウントで議事録をAIで作成するのは、会社の情報資産を外に持ち出しているのに近い。ここを経営者や管理職が軽く見るべきでない。最悪の場合、取引停止・契約解除・損害賠償につながる可能性もある。

実際、お客様情報や取引先の機密情報が外部AIに入力された場合、「実際に漏洩したか」以前に、「管理体制が甘い会社」と見られてしまう。大企業や官公庁、医療、金融、製薬との取引では、それだけで関係が終わることもある。

「え? 議事録をAIで作成しちゃダメなの?」

という疑問への答えはこうだ。会社が認めた環境で作るなら問題ない。個人アカウントで機密情報を入力して作るなら、それは会社にとって大きなリスクになりうる。この違いを、すべての社員と管理職が理解することが大事だ。

【この記事の著者・横山信弘氏への仕事のお悩みを募集します!】本連載では、読者の皆様からのご相談を受け付けています。「困った部下・上司・同僚への対応」や「仕事で壁にぶつかったときの対処法」など、さまざまなお悩みをお寄せください。ご協力いただける方は、こちらのフォームからお送りください。

こちらの記事もおすすめ

あなたにおすすめ

キャリア・教育

人気記事 HOT

※過去1週間以内の記事が対象