《若手の一言》で会議室が凍りつき商談即中止、顧客ゲキ切れ 「AIで御社の課題を整理しました!」「分かりやすい資料を作りたかった・・・」 

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
謝罪する若手ビジネスマン
ChatGPTを例にAIツールを使う営業が陥りがちな情報漏洩リスクと、AI時代に営業が持つべき姿勢について解説する(写真:metamorworks/PIXTA)

「御社の課題をChatGPTで整理しました。AIで分析した結果がこちらです!」

ある若手営業のこの一言で、会議室の空気が凍りついた。お客様は顔色を変え、「うちの情報を勝手にAIに入力したのか?」と激怒したのだ。商談はその場で打ち切り。その後、信頼関係は完全に崩壊した。

若手営業に悪気はなかった。「分かりやすい資料を作り、喜んでもらおう」という気持ちが強かった。だが、AIの便利さに目を奪われ、最も基本的なセキュリティリスクを忘れてしまった。

そこで今回は、ChatGPTを例にAIツールを使う営業が陥りがちな情報漏洩リスクと、AI時代に営業が持つべき姿勢について解説する。顧客情報を扱うすべての営業パーソンは、ぜひ最後まで読んでもらいたい。

ChatGPTは社内ツールではない

多くの人が誤解してしまうのが、「ChatGPTは自分の作業を助けてくれる便利ツール」ということ。極端な話、「社内システムと同じ」と錯覚してしまう。しかしこれは極めて危険な思い込みだ。

現在、ChatGPTの無料版やPlus版では、デフォルトで入力内容が保存され、モデル改善(学習や調整)に利用される可能性がある。つまり、営業が入力した個人情報や機密情報が、他者への回答の中に断片として出てしまうリスクがある。これは、完全に削除できない可能性もある。

つまり、お客様から預かった情報を、許可なく第三者のシステムに渡したと評価されても仕方がないということだ。

機密保持契約(NDA)を結んでいた場合、重大な問題になるかもしれない。契約違反とみなされ、場合によっては損害賠償請求の対象にもなり得るのだ。「便利だから使った」では済まされない。

次ページ「エンタープライズ版だから大丈夫」は半分正しく半分間違い
関連記事
トピックボードAD
キャリア・教育の人気記事