ChatGPTの利用を社内で許可する場合は、迅速に「利用ガイドライン」を策定する必要がある。
大前提として、リスクがあるからといって企業がChatGPTなどを利用することに必要以上に慎重になることはない。むしろ積極的に活用しないと社会経済の発展に取り残されてしまう可能性がある。
そのうえで、適切なサイバーセキュリティー対策を取ることが重要だ。とはいえ何か特別な対策を打つ必要があるわけではなく、考え方としてはパブリッククラウドを利用する際とよく似ている。
情報漏洩を防ぐためのルール
対策は複数あるが、1つがプロンプト(指示を出す文章)の内容。情報漏洩を防ぐために、個人情報や社外秘の情報を入力してはいけない。例えば取引先からもらった英文の契約文書を入力して要約させる、といった利用はいかにもしがちだが、避けるべきだ。一般的な内容を入力するにとどめるのが賢明だろう。
ChatGPTは生成AIの1つだが、無償で提供されているサービスは入力した情報がAIの学習のために使われてしまうことがある。もし顧客の個人情報や社内の機密情報を入力したら、それが第三者の質問の回答として出力されるかもしれない。
企業が利用するなら、(ソフトウェア同士をつなぐAPI経由や、マイクロソフトのクラウドサービスAzure上で利用するといった)有償での利用が安心だろう。こうすれば、入力した情報は学習に使われない。
その際にも、入力したデータがどう取り扱われるかを(サービス提供者側に)個別に確認する手間を惜しんではいけない。
この記事は有料会員限定です。
東洋経済オンライン有料会員にご登録頂くと、週刊東洋経済のバックナンバーやオリジナル記事などが読み放題でご利用頂けます。
- 週刊東洋経済のバックナンバー(PDF版)約1,000冊が読み放題
- 東洋経済のオリジナル記事1,000本以上が読み放題
- おすすめ情報をメルマガでお届け
- 限定セミナーにご招待
無料会員登録はこちら
ログインはこちら