『責任あるAI 「AI倫理」戦略ハンドブック』の著者が、考察すべきリスクとリスクを軽減するために企業や組織、利用者がとるべき対策について解説する。大きく分けて「事前に検討すべきリスク」と「利用時に検討すべきリスク」があり、今回は「利用時に検討すべきリスク」を確認していく。
利用時に検討すべきリスク
生成AIの活用に伴い、機密情報・個人情報の漏洩、誤った情報の混入、差別・偏見・問題発言の混入、著作権の侵害など、さまざまなリスクが顕在化し、訴訟に発展する事例も生じています。「事前に検討すべきリスク」を紹介した前回に続き、今回は「利用時に確認すべきリスク」について、詳しく述べていきます。
利用時に検討すべきリスクには「インプットにおけるリスク」と「アウトプットにおけるリスク」があります。それぞれについて説明していきましょう。
入力情報の漏洩:入力された情報が学習に利用された場合、それが生成結果として出力されてしまうことがあります。入力情報に個人情報、要配慮個人情報、企業・組織の機密情報が含まれる可能性がある場合には注意が必要です。現時点ではChatGPT APIで送信した情報の学習への利用についてはオプトイン、すなわち同意にチェックしない限り利用されることはないとされていますが、WebのChatGPTでの利用など、非APIからの利用の場合はオプトアウト(学習に使用しない旨の申請が必要)となっている状況です。
不確実な知的財産権:これまで著作権の問題は学習データに著作物が含まれていないかという点が主な争点でしたが、生成AIの場合は生成物に関しての著作権問題が表面化するとみられています。コード生成においてはオープンソースソフトウェア(OSS)のコードが知らないうちに利用されている可能性がありますが、OSS利用には適切なライセンス表示が必要など、制約があります。生成されたコードの由来のひもづけと適切なライセンス表示はまだ解決されていない問題であり、利用にあたっては注意が必要です。
無料会員登録はこちら
ログインはこちら