有料会員限定

ChatGPTの社内活用は「使用黙認」が最もキケン サイバー安全対策に詳しい中谷昇氏に聞いた

✎ 1〜 ✎ 4 ✎ 5 ✎ 6 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小

ChatGPTの利用を社内で許可する場合は、迅速に「利用ガイドライン」を策定する必要がある。

Zホールディングス 常務執行役員 中谷昇氏
中谷 昇(なかたに・のぼる)/Zホールディングス 常務執行役員。セーファーインターネット協会副会長。1993年警察庁入庁。2007年にインターポールへ移籍。2012年に同サイバー犯罪対策組織の初代総局長に就任。2020年10月から現職(撮影:梅谷秀司)

特集「ChatGPT 仕事術革命」の他の記事を読む

日本企業でも、ChatGPTなどの生成AI(人工知能)を社内の業務効率改善のために活用する動きは広がっている。4月17日発売の『週刊東洋経済』では「ChatGPT 仕事術革命」を特集。ChatGPTを活用するうえで留意する必要があるのが、自社情報の漏洩リスクだ。どんな対策を取るべきなのか。Zホールディングス常務執行役員で、サイバーセキュリティ対策に詳しい中谷昇氏に聞いた。

大前提として、リスクがあるからといって企業がChatGPTなどを利用することに必要以上に慎重になることはない。むしろ積極的に活用しないと社会経済の発展に取り残されてしまう可能性がある。

そのうえで、適切なサイバーセキュリティー対策を取ることが重要だ。とはいえ何か特別な対策を打つ必要があるわけではなく、考え方としてはパブリッククラウドを利用する際とよく似ている。

情報漏洩を防ぐためのルール

対策は複数あるが、1つがプロンプト(指示を出す文章)の内容。情報漏洩を防ぐために、個人情報や社外秘の情報を入力してはいけない。例えば取引先からもらった英文の契約文書を入力して要約させる、といった利用はいかにもしがちだが、避けるべきだ。一般的な内容を入力するにとどめるのが賢明だろう。

週刊東洋経済 2023年4/22号[雑誌](ChatGPT 仕事術革命)
『週刊東洋経済 2023年4/22号[雑誌](ChatGPT 仕事術革命)』(東洋経済新報社)書影をクリックするとAmazonのサイトにジャンプします。

ChatGPTは生成AIの1つだが、無償で提供されているサービスは入力した情報がAIの学習のために使われてしまうことがある。もし顧客の個人情報や社内の機密情報を入力したら、それが第三者の質問の回答として出力されるかもしれない。

企業が利用するなら、(ソフトウェア同士をつなぐAPI経由や、マイクロソフトのクラウドサービスAzure上で利用するといった)有償での利用が安心だろう。こうすれば、入力した情報は学習に使われない。

その際にも、入力したデータがどう取り扱われるかを(サービス提供者側に)個別に確認する手間を惜しんではいけない。

次ページ「利用ガイドライン」に盛り込むべき内容とは
関連記事
トピックボードAD