フェイスブックは「中立」な報道機関ではない 「アルゴリズムに偏見はない」は幻想だ
たとえば、人々がもともと持っていた考え方が、アルゴリズムで選び出されたニュースによってさらに強化されるのではとの懸念は以前からある。ニュースフィードに自分とほかの人たちが同じように「いいね!」を押したニュースが表示されるなら、政治的二極化がさらに進む可能性がある。フェイスブック内部での昨年の研究では、こうした影響は小さいとの結論が出されてはいるが。
比較研究するにも対象がない
だが、アルゴリズムに手を加える際(フェイスブックは定期的に変更を加えていると言う)に、そうした影響の拡大を防ぐためのガイドラインはあるのだろうか? また、意図的ではなくても特定の候補やイデオロギーに有利になってしまう事態を予防するようなガイドラインは? 言い換えれば、フェイスブックの技術的な決定は倫理審査の対象となるのだろうか? それは誰にもわからない。
フェイスブックのバイアスを懸念しなければならない理由はほかにもある。それは規模の大きさと関わりがある。
キャプランによれば、従来型メディアのバイアスについて調べる場合、ほかの報道機関と比較をするのが普通だ。ニューヨーク・タイムズが特定のテーマに関する報道を不公正に排除したかどうかを調べるには、ワシントン・ポストやウォールストリート・ジャーナルといったライバル紙と比べればいいわけだ。もしライバル紙がその問題を報じているのにニューヨーク・タイムズだけやっていないとしたら、掲載をめぐる判断に何か問題があるということになる。
ところが、フェイスブックでそうした比較研究をするのはほぼ不可能だ。フェイスブックでは、ニュースフィードに表示される内容は個々のユーザーに合わせて選ばれており、人によってさまざまだ。だからフェイスブックの全社的バイアスを調べられる立場にあるのは当のフェイスブックのみということになる。たとえすべてのユーザーを対象に記事の拡散の様子を調べられたとしても、比較する対象がない。
「フェイスブックは(社会に)すっかり浸透した」とキャプランは言う。規模でも人気でもフェイスブックに匹敵するソーシャルネットワークは存在しないし、同じような使われ方をしているものもない。つまり、フェイスブックのアルゴリズムによるコンテンツ表示にバイアスがないか調べようにも対比するうまい相手がいないのだ。
つまり私たちの前にあるのは、非常に強力だが中身の見えない「ブラックボックス」だ。2010年のフェイスブックの研究によれば、友達が投票に行ったという投稿を見せるだけでユーザーに投票を促す効果が得られたという。これは無作為に選ばれたユーザーを対象とした研究であり、特定の候補の支持者だけに投票を働きかけた送ったわけではない。
だが、そういうことが起きる可能性は否定できない。そして、もしそんな事態になっても、ユーザーは何も気づかないかもしれない。
(執筆:Farhad Manjooコラムニスト、翻訳:村井裕美)
(c) 2016 New York Times News Service
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら