知らないとマズい「ChatGPT」使う時の法的リスク 企業にはどんな利用ルールが必要なのか

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
生成系AI
(写真:PIXTA)
ChatGPTなどの生成AIの普及が急速に進んでいますが、会社の従業員が営業秘密を生成AIに入力してしまう事例や、生成AIから出力されたコンテンツから収益をあげるビジネスが炎上してしまう事例が発生しています。
生成AIの利用ではさまざまな法的論点がありますが、その問題点が整理、検討しきれないままに現場で利用が進んでしまっていたり、逆に法的リスクを過度に懸念して利用を躊躇してしまっている例があります。本稿では『ChatGPTの法律』の共著者の1人である田中浩之弁護士が、生成AIの利用にあたり問題となる法的論点について解説します。

データ入力段階での論点は?


生成AIの利用にあたっては、まず、プロンプト(生成AIへの指示/命令)にデータを入力することやファインチューニング(自社独自のデータを使い生成AIを特定のタスクに適合するように調整すること)のためにデータを入力することについての論点があります。

・個人情報・機密情報等に関する論点
まず、個人情報保護法との関係が問題になります。生成AIに個人情報を入力することについて、自社が公表などしている個人情報の利用目的と適合しているのかや、個人データを第三者に提供するにあたっての個人情報保護法上の規制に適合しているのかなどが論点になります。

データの入力を前提とした大量の情報のインターネットからの収集段階において犯罪歴や病歴などの要配慮個人情報が含まれてしまうという問題への対応も留意すべき点となります。

また、自己の営業秘密(機密情報)や、第三者と秘密とすることを約束して管理している営業秘密(機密情報)等を生成AIに入力することにより、自己の営業秘密としての保護が失われてしまったり、第三者との機密保持義務違反の責任を問われないようにするための法的対応が必要になります。

次ページ著作権との関係も問題に
関連記事
トピックボードAD
ビジネスの人気記事