偽情報で「加害者」にされる!「AI悪用」の防ぎ方 リスクを軽減する「責任あるAI」と「AI倫理」

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
偽の情報で、知らないうちに加害者にされてしまうことも……。AIを正しく活用していくにはどうしたらいいのか(写真:beauty-box/PIXTA)
偽情報・誤情報によって「セクハラ冤罪」を生成したり、人種差別・男女差別をしたり……。「誰でも使えるAI」、アメリカOpenAIのChatGTPをはじめとするジェネレーティブAI(生成AI)の活用事例が増えると同時に、さまざまなリスクが懸念されている。
責任あるAI 「AI倫理」戦略ハンドブック』の著者が、考察すべきリスクとリスクを軽減するために企業や組織、利用者がとるべき対策について解説する。大きく分けて「事前に検討すべきリスク」と「利用時に検討すべきリスク」があり、今回は「利用時に検討すべきリスク」を確認していく。

利用時に検討すべきリスク

『責任あるAI 「AI倫理」戦略ハンドブック』(書影をクリックすると、アマゾンのサイトにジャンプします。紙版はこちら、電子版はこちら。楽天サイトの紙版はこちら、電子版はこちら

生成AIの活用に伴い、機密情報・個人情報の漏洩、誤った情報の混入、差別・偏見・問題発言の混入、著作権の侵害など、さまざまなリスクが顕在化し、訴訟に発展する事例も生じています。「事前に検討すべきリスク」を紹介した前回に続き、今回は「利用時に確認すべきリスク」について、詳しく述べていきます。

利用時に検討すべきリスクには「インプットにおけるリスク」と「アウトプットにおけるリスク」があります。それぞれについて説明していきましょう。

インプットにおけるリスク

入力情報の漏洩:入力された情報が学習に利用された場合、それが生成結果として出力されてしまうことがあります。入力情報に個人情報、要配慮個人情報、企業・組織の機密情報が含まれる可能性がある場合には注意が必要です。現時点ではChatGPT APIで送信した情報の学習への利用についてはオプトイン、すなわち同意にチェックしない限り利用されることはないとされていますが、WebのChatGPTでの利用など、非APIからの利用の場合はオプトアウト(学習に使用しない旨の申請が必要)となっている状況です。

アウトプットにおけるリスク

不確実な知的財産権:これまで著作権の問題は学習データに著作物が含まれていないかという点が主な争点でしたが、生成AIの場合は生成物に関しての著作権問題が表面化するとみられています。コード生成においてはオープンソースソフトウェア(OSS)のコードが知らないうちに利用されている可能性がありますが、OSS利用には適切なライセンス表示が必要など、制約があります。生成されたコードの由来のひもづけと適切なライセンス表示はまだ解決されていない問題であり、利用にあたっては注意が必要です。

次ページ事実無根のセクハラ法律学者のリスト
関連記事
トピックボードAD
マーケットの人気記事