誤情報の混入:あまりに流暢な文章が生成されるため、誤情報が混入していたとしても気づきにくいという問題がたびたび指摘されています。これは意図的に大量の偽情報を広めたいグループにとっては都合の良いツールとなるとして、問題視されています。
例えば、カリフォルニア州の弁護士が調査研究の一環として、生成AIに「誰かにセクハラした法律学者のリストを生成する」ように指示したところ、実在の法学教授の名前がリストに載っていたという事例が報道されています。さらに、情報源としてワシントンポストの 2018年3月の記事を引用し、アラスカへの修学旅行中に性的なコメントをしたり、学生に触れようとしたと出てきたとのこと。実際には、その記事は存在せず、アラスカへの修学旅行も含めてそのような事実はありませんでした。
このような文章をSNSで投稿されたら……と背筋が凍るような事件ですが、生成結果にはこのような偽情報・誤情報が含まれる可能性があることに十分留意し、ファクトチェックを必ず行う必要があります。また、コードを生成する場合には、生成コードが問題を起こさず意図したとおりに機能するかどうかの検証が必須でしょう。
画像生成結果には人種間で差がある
差別・偏見の混入:生成AIの作成過程で使われるデータが差別・偏見などを含んでいるため、それが生成結果に出力され問題を引き起こす可能性があります。実際、画像加工アプリではアジア系女性と白人女性との生成結果が異なる(アジア系女性の場合は肌の露出が多い画像が生成されやすい)ことや、画像生成系AIに「CEO」や「取締役」などのプロンプトを与えると、97%の確率で白人男性の画像を生成した、との報告も出されています。生成結果に差別や偏見、ステレオタイプが反映されていないか、自分だけでなく周りの人にも確認してみるなどし、利用にあたっては注意する必要があります。
無料会員登録はこちら
ログインはこちら