生成AIの「無断学習」を規制するうえでの論点 強く規制することにはデメリットも
一方で、すでに現在の生成AIでも、その使い方に問題がある事例が多く観測されているのも事実です。使用段階において、明らかに現行法を適用できるものや適用を検討できそうなもの(たとえば特定の著作物をAIで改変して公衆送信すること、特定のクリエイターの作品を集中学習させたモデルを使用することなど)については、そのまま対処・ガイドラインを公表しつつ、それでも取り締まれない問題となる使用については、立法も視野に入れるべきでしょう。
ここまでの話は、著作権法により(議論はあれど)保護の範囲がある程度明確な画像などの著作物を対象としたものでしたが、その範囲がこれらほど明確な形で示されていないものも存在します。本記事の執筆時点ですでに物議を醸している、人間の「声」がその例です。
「人間の声」の生成行為をどう考えるか
現在の最先端の生成AIは、短い声のサンプルがあれば、学習対象による発声と区別がつかないレベルで自由にセリフや歌などの音声データを生成できます。人間の声は生得的で個人に特有のものであり、認証に利用されるなど個人の属性を強く反映するものです。
その点で、画像や音楽とは異なるレベルでの保護が必要であるとも考えられますが、AIによる声の学習や生成行為については、著作権だけでなく肖像権なども含めた複雑な要素があり、議論が続いている状況です。
現時点で出されている見解の1つは、無断でAIによって特定の声優、著名人などの声を生成して商用利用する行為については、それが当該人物の声と認識されるものであれば、パブリシティ権侵害に当たるというものです。特定の声優の声を無断で学習したAIによる発声や歌唱を公開するといった行為が発生していますが、この見解に基づけば、そのいくつかは規制の対象になる可能性が高いでしょう。
ここまで見てきたように、生成AIの学習や生成について、何もかもを法律で規制することは現実的には困難です。法的な規制が難しい部分は、生成AIの開発・利用社の努力義務にとどまるでしょう。
ただ、その努力義務に対する取り組みが、生成AIによるサービスを提供する企業にとっての価値の一部になることも考えられます。たとえば学習について、法的な一括規制は難しくとも、「学習に使用されたくない」という希望を受け入れ、学習データから除外する努力を開発側から行うことは検討されるべきです。
OpenAI社は、学習に使うデータを収集する「GPT Bot」のクローリングをブロックするための手順を公開しています。加えて、学習データの透明性、著作権者への収益の還元なども、現実的な範囲で検討が進むことが期待されます。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら