《若手の一言》で会議室が凍りつき商談即中止、顧客ゲキ切れ 「AIで御社の課題を整理しました!」「分かりやすい資料を作りたかった・・・」
「うちはChatGPT Enterpriseを使っているから安全だ」
そう考えている営業もいるだろう。確かに、ChatGPT Enterpriseといった法人向けのプランなら、入力内容が学習に使われない、通信が暗号化される、などのセキュリティ強化が図られている。
しかし、それでも問題は残る。
「お客様の同意なしに外部システムで処理した」という事実そのものが信頼を壊すのだ。
たとえセキュアな環境であっても、お客様からすれば「許可なく入力した」と認識されることもある。技術的な安全性と、お客様との信頼関係は別の問題だと捉えよう。
AI時代の営業が持つべき3つの姿勢
テクノロジーがどれだけ進化しても、営業が扱っているのは「信頼」である。だからこそ、AIの利用については次の3つの姿勢が大事だ。
(2)利用環境を慎重に選ぶ
(3)ルールを整備する
それでは、一つひとつ解説していきたい。
「入力した情報は戻ってこない」「AIは外部のシステムである」。この大前提を常に胸に刻むことだ。便利さの裏には必ずリスクがある。
テクノロジーが急速に進化しており、私自身もリスク意識が追い付かないときがある。だから「慎重すぎる」ぐらいがちょうどいい。リスクを正しく認識できない営業は、いずれ大きな失敗を犯すだろう。
ChatGPT無料版やPlus版は、できる限り業務で使わないほうがいいだろう。もちろん個人情報や機密情報は、絶対に入力禁止だ。どうしても使うときはEnterpriseやAPIを検討する。それでも「お客様の同意」は必須。
ある大手企業の営業部長は、こう言っていた。
「うちの部署では、お客様情報をChatGPTに入力する場合、必ず事前に書面で許可を取るルールにしている。手間はかかるが、これが信頼を守る唯一の方法だ」
この判断が、会社を守るのだ。
入力した内容を監査できる体制を作ろう。社内で明確なルールを作り、仕組みも導入する。
とくに事故を防ぐための仕組みづくりは欠かせない。営業は現場で、その都度状況を判断しながら動いている。そのため、ルールがなければ各自の判断で行動してしまうのだ。
これら3つの姿勢を徹底することで、AI時代のリスクを大きく減らすことができるだろう。リスクを理解し、慎重に利用環境を選び、組織としてルールを整備する。この順番で対策を講じることだ。



















無料会員登録はこちら
ログインはこちら