知らないとマズい「ChatGPT」使う時の法的リスク 企業にはどんな利用ルールが必要なのか

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

さらに、Brand guidelines も定められているため、これらに違反が生じないように留意が必要です。その他、一般には、生成物の商用利用が禁止されているケースや、生成物について他人への権利行使が制限されているケースも多いため注意が必要です。特に、APIやプラグインなどのサービスで多数のサービス提供事業者が登場する場合、それぞれにおけるルールを確認しておく必要があります。

企業はどう対応すべきか

今後、国内外でAIに対する法律や政府のガイドラインなどによる規制が進む可能性があり、これらの動向を踏まえて対応していく必要があります。特にEUでは、2023年6月に欧州議会で修正案が採択されたAI規則案(本記事執筆時点で未成立)では、リスクに応じた包括的なAI規制を導入し、生成AIモデル事業者にも重い責任を課しており、注目されます。

ChatGPTの法律
『ChatGPTの法律』(中央経済グループパブリッシング)書影をクリックするとAmazonのサイトにジャンプします

企業としては、生成AIを役職員に利用させるにあたっては社内ルール(ガイドライン)を定めることが有益です。たとえば、日本ディープラーニング協会が、生成AIの利用ガイドラインのひな形を無料で、インターネットで公開しており、参考になります。

社内ルールについては、完璧を求めるあまりになかなか確定できないという問題が生じることがありますが、社内ルールは、自社として利用する生成AIサービスの態様や規約の変化、実務の進展等を踏まえて適宜改訂すればいいため、まずは、最低限のものを早期に導入することが大切です。

社内ルールの策定にあたっては、禁止と許可の2区分に固執する必要はなく、個別承認事項を設けることも考えられますし、法的な論点を含む複雑なルールを全て現場の一従業員が社内ルールを見て完全に判断するのは難しいため、不明点がある場合には、気軽に相談できるような窓口を案内しておくことも有益です。また、問題事例を今後ルールに反映させるために、違反(のおそれ)がある場合に通報・相談できる窓口を設けることも有益です。

全社で1つの統一的なルールを作らなければいけないということはありませんので、たとえば、研究開発部門用の特別ルールを設けるなど、部署ごとに異なるルール・特則を設けることも選択肢です。

ルールを作るのみならず、自社用の活用が適切な事例と不適切な事例等のケーススタディを含めて、生成AIの利用を促進しつつ、社内ルールを周知するための研修を行うことも重要になります。

田中 浩之 弁護士・ニューヨーク州弁護士(森・濱田松本法律事務所)

著者をフォローすると、最新記事をメールでお知らせします。右上のボタンからフォローください。

Hiroyuki Tanaka

2004年慶應義塾大学法学部法律学科卒業、2006年慶應義塾大学大学院法務研究科修了、2007年弁護士登録、2013年ニューヨーク大学ロースクール修了、2013年Clayton Utz法律事務所で執務(〜2014年8月)、2014年ニューヨーク州弁護士登録。2023年4月~慶應義塾大学大学院 法学研究科 特任教授(非常勤)兼慶應義塾大学グローバルリサーチインスティテュートサイバーフィジカル・サステナビリティ・センター構成員。個人情報、IT、知的財産を3本柱とする。著作は「ChatGPTの法律(共著)」「60分でわかる!改正個人情報保護法 超入門」(共著)など。

この著者の記事一覧はこちら
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ビジネスの人気記事