生成AIを利用したい企業にとって懸念材料となるのが、著作権問題だ。どのような使い方となったら著作権侵害になりうるのか。専門家が解説する。
![手のひらに浮かんだコピーライトのマーク](https://tk.ismcdn.jp/mwimgs/8/2/1140/img_8211b23d284ae266d1c3aa1a55a292b3284688.jpg)
AI法務に詳しい弁護士に、悩める企業が話を聞いた(写真:Gesrey / PIXTA)
生成AIをビジネスに実装するうえでは、入念なリスク対策が必須。とくにインターネット上の大量のデータを収集して学習に使うChatGPTは、著作権侵害が問題になってくる。AI・データ法務に詳しい西村あさひ法律事務所の福岡真之介弁護士が、悩める管理職の疑問にチャット形式で答えてくれた。
![](/smwimgs/7/f/-/img_7f0806cb-0e93-459c-bebd-2d4e6325e241.jpg)
TKアドの法務部長(以下、部長) 社を挙げて生成AIの活用を検討することになりました。そのうえで、まずはリスクを洗い出したいのですが。
福岡弁護士(以下、弁護士) 企業が生成AIを利用する際のリスクを大きく分類すると、以下の5つが挙げられます。①著作権侵害、②誤った情報の利用、③秘密情報の漏洩、④個人情報の不適切な利用、⑤悪用です。ただ、留意すべき点は、企業がどのような段階で生成AIを利用しようとしているのかによって異なってきます。
部長 利用の段階というと…。
生成AIの利用段階は4つ
この記事は有料会員限定です。
ログイン(会員の方はこちら)
有料会員登録
東洋経済オンライン有料会員にご登録頂くと、週刊東洋経済のバックナンバーやオリジナル記事などが読み放題でご利用頂けます。
- 週刊東洋経済のバックナンバー(PDF版)約1,000冊が読み放題
- 東洋経済のオリジナル記事1,000本以上が読み放題
- おすすめ情報をメルマガでお届け
- 限定セミナーにご招待
トピックボードAD
有料会員限定記事
無料会員登録はこちら
ログインはこちら