AIが「フェイクニュース」を大量に作成、配信!? 5つの行動原則「TRUST」で潜在リスクを防ぐ

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

これが問題視されるようになったきっかけの一つが、アメリカのトランプ政権下での国内分断でした。SNS上で同意見の人たちがつながり、集まり、意見交換を繰り返していった結果、同じ意見を述べたブログや記事などに触れやすくなる一方、反対意見の記事には触れにくくなっていきます。

その結果起こるのが、閉鎖的な空間の中で特定の意見・信念が増強されてしまい、それ以外の意見を受け入れられなくなってしまう、「エコーチェンバー」と呼ばれる現象です。

記憶に新しい2021年1月6日に発生したアメリカ連邦議会占拠事件は、エコーチェンバーにより増強された陰謀論がその背景にあるとされています。情報収集を効率化するAIがこういった社会的な影響を及ぼす可能性もあるのです。

アルゴリズムやデータそのものに存在するバイアス

アルゴリズムの設計の際にも当然リスクが存在します。”Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy"(邦訳は『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』(キャシー・オニール著、久保尚子訳、インターシフト)の著者であり、数学者・データサイエンティストでもあるキャシー・オニール氏は、「アルゴリズムとはプログラムに埋め込まれた意見である」と述べています。設計者が何を成功とするかという基準を決め、その基準に基づいてアルゴリズムが設計されるからです。

人間が設計するものである以上、設計者が望みも気づきもしない形で、アルゴリズムはバイアスの影響を受けることになります。しかも厄介なのは、「アルゴリズムは客観的であり、その出力は(人間の判断と比較すると)合理的である」と判断してしまうことです。アルゴリズムの結果を盲信してしまい、そこに存在しているバイアスに気づくことができない場合が多いのです。

そして冒頭の例でも取り上げたように、使っているデータそのものに問題がある場合もあります。

AIの開発には学習用のデータが必要になりますが、AI開発用に大規模なデータが一般公開されている場合もあります。そういった大規模データのおかげで、これまでのAI研究・開発は加速しました。しかし、近年こうした大規模データの中にもバイアスが存在しており問題を生じさせる可能性があることが指摘され始めています。

次ページ差別表現を内包したAI
関連記事
トピックボードAD
マーケットの人気記事