人を欺くAI利用を追跡してきた研究者らは、何が真実で何がそうでないかを人々が確実に見分けられるよう、企業にはさらなる措置を講じる責任があると指摘する。
「誤情報や偽情報のコンテンツモデレーション(取り締まり)が十分かといえば、明らかに不十分だ」と、テクノロジーの脅威に焦点を当てた人権団体ウィットネスの事務局長、サム・グレゴリーは言う。
「AIでつくられた情報を企業が積極的に検出して(AI生成情報だと)ラベリングする取り組みについても答えは同じで、こちらも足りていない」
トピックボードAD
有料会員限定記事



















