知らないとマズい「ChatGPT」使う時の法的リスク 企業にはどんな利用ルールが必要なのか
この点については、内部向けには、生成AIが生成したものを鵜呑みにしてはいけないということを教育することが重要です。他方、外部向けサービスの場合には、債務不履行や不法行為等の法的責任の軽減のための対応としては、サービスの説明や利用規約においてサービスの性質上の限界や保証の範囲・責任の範囲を明確にしておくといった対応も重要です。
もっとも、技術的な対応も重要になります。たとえば、プロンプトを制御して、問題発言が引き出されるような質問自体をそもそも制御する仕組みを導入したり、あるいは、強化学習により、出力段階でこうした内容が出力されないようにコントロールすることが考えられますが、特に後者は、一般的な利用企業レベルでは限界が多いかと思います。
前者・後者のいずれの方法も、結局のところ、プロンプトの工夫によりかいくぐられてしまう可能性があり、いたちごっこが続く面はあるとは言えるかもしれませんが、企業には、信頼されるサービスの提供のための努力が求められます。
生成AIの利用規約をよく理解する
・業法などや利用規約の関係など
免許・資格などが必要な特定の業種の業務を自動化するような生成AIを提供した場合(とりわけ有償で提供した場合)には、業法との抵触なども問題となります。また、免許・資格などを保有している事業者がサービスを提供する場合にも、業法で禁止されるような行為を行わないようにする必要があります。
たとえば、金融商品取引法では、顧客に対し、不確実な事項について確実であると誤解させるおそれのあることを告げて金融商品取引契約の締結の勧誘をする行為が禁止されており、生成AIがこのような発言をしないように設計しておく必要もあります。
また、生成AIの利用にあたっては、生成AIの利用規約を遵守する必要があり、そこで禁止されている行為に抵触しないことやそこで要求されている行為を遵守することが必要になります。
たとえば、ChatGPTの場合、一般的なルールとして、Terms of Use が存在しているほか、Usage policies で用途の制限が定められています。Sharing & publication policy では利用時における表示の規制(AI生成物であることを示すことや人間とAIの合作である場合に、100%AIや100%人間が作ったものと誤解を与えるような表示をせず、その役割を説明すること)等が要求されています。
無料会員登録はこちら
ログインはこちら