偽情報・誤情報によって「セクハラ冤罪」を生成したり、メンタルヘルス改善のはずの「会話」で自殺幇助をしてしまったり……。「誰でも使えるAI」、アメリカOpenAIのChatGTPをはじめとするジェネレーティブAI(生成AI)の活用事例が増えると同時に、さまざまなリスクが懸念されている。
『責任あるAI 「AI倫理」戦略ハンドブック』の著者が、考察すべきリスクとリスクを軽減するために企業や組織、利用者がとるべき対策について解説する。大きく分けて「事前に検討すべきリスク」と「利用時に検討すべきリスク」があり、まずは、「事前に検討すべきリスク」を確認していく。
生成AI活用のために考察すべきリスク
「誰でも使えるAI」、ジェネレーティブAI(生成AI)を使いこなせるかどうかで、個人、企業、国家の競争力が左右される時代が到来し、生成AIのポテンシャルの高さが注目されています。
一方で、生成AIの活用に伴い、機密情報・個人情報の漏洩、誤った情報の混入、差別・偏見・問題発言の混入、著作権の侵害など、さまざまなリスクが顕在化し、訴訟に発展する事例も生じています。
2023年4月29、30日に開かれたG7デジタル・技術相会合での議論では、規制の議論が進む欧州・アメリカと、活用を推進し規制には慎重な日本など、立場が異なる各国の足並みをどのようにそろえるのかが焦点になっていました。
ここでは、生成AIの活用にあたってのリスクにフォーカスし、リスクを軽減するためにどのような点に留意すべきかについて説明します。
トピックボードAD
有料会員限定記事
マーケットの人気記事
無料会員登録はこちら
ログインはこちら