「ChatGPT」利用で個人情報保護法に触れる危うさ 生成AIを利用する時に何を気をつけたらいいか
ChatGPTなどの生成AIを利用する場合、個人情報の扱いは非常に重要になります。2023年3月には、イタリア当局が個人情報の処理の問題を理由に、ChatGPTの使用の一時禁止命令を行ったことが話題になったほか(現在は解除済)、日本の個人情報保護委員会も、6月2日に生成AIに関する注意喚起を公表。企業の従業員が営業秘密(機密情報)を生成AIに入力してしまう事例も問題になっています。
そこで本稿では、『ChatGPTの法律』の共著者の1人である田中浩之弁護士が、生成AIの利用にあたり問題となる個人情報・営業秘密(機密情報)に関する論点について解説します。
前提としてのデータ収集の問題
生成AIのモデルを自社用にファインチューニングや、プロンプトエンジニアリングをするためのデータをインターネット上から取得する場合、データの一部に要配慮個人情報が含まれてしまう可能性があります。
個人情報保護法上、要配慮個人情報(病歴や犯罪歴等法律で決められたとくに配慮を要する個人情報)の取得については、あらかじめ本人の同意を得ておくことが必要です。そこで、個人情報保護法上の例外に当たらない限り、事業者は、本人同意を取らなければならないことになります。しかし、現実的には、本人同意を取ることは困難です。
個人情報保護法では、たとえば、本人、国・地方公共団体、学術研究機関、報道機関、著述を業としている者が要配慮個人情報を公開した場合などは例外的に本人同意が不要となります。しかし、例外でカバーできないものが残ってしまい、どう対応するのかが問題です。
トピックボードAD
有料会員限定記事
ビジネスの人気記事
無料会員登録はこちら
ログインはこちら