フェイスブックは「中立」な報道機関ではない

「アルゴリズムに偏見はない」は幻想だ

たとえば、人々がもともと持っていた考え方が、アルゴリズムで選び出されたニュースによってさらに強化されるのではとの懸念は以前からある。ニュースフィードに自分とほかの人たちが同じように「いいね!」を押したニュースが表示されるなら、政治的二極化がさらに進む可能性がある。フェイスブック内部での昨年の研究では、こうした影響は小さいとの結論が出されてはいるが。

比較研究するにも対象がない

だが、アルゴリズムに手を加える際(フェイスブックは定期的に変更を加えていると言う)に、そうした影響の拡大を防ぐためのガイドラインはあるのだろうか? また、意図的ではなくても特定の候補やイデオロギーに有利になってしまう事態を予防するようなガイドラインは? 言い換えれば、フェイスブックの技術的な決定は倫理審査の対象となるのだろうか? それは誰にもわからない。

フェイスブックのバイアスを懸念しなければならない理由はほかにもある。それは規模の大きさと関わりがある。

キャプランによれば、従来型メディアのバイアスについて調べる場合、ほかの報道機関と比較をするのが普通だ。ニューヨーク・タイムズが特定のテーマに関する報道を不公正に排除したかどうかを調べるには、ワシントン・ポストやウォールストリート・ジャーナルといったライバル紙と比べればいいわけだ。もしライバル紙がその問題を報じているのにニューヨーク・タイムズだけやっていないとしたら、掲載をめぐる判断に何か問題があるということになる。

ところが、フェイスブックでそうした比較研究をするのはほぼ不可能だ。フェイスブックでは、ニュースフィードに表示される内容は個々のユーザーに合わせて選ばれており、人によってさまざまだ。だからフェイスブックの全社的バイアスを調べられる立場にあるのは当のフェイスブックのみということになる。たとえすべてのユーザーを対象に記事の拡散の様子を調べられたとしても、比較する対象がない。

「フェイスブックは(社会に)すっかり浸透した」とキャプランは言う。規模でも人気でもフェイスブックに匹敵するソーシャルネットワークは存在しないし、同じような使われ方をしているものもない。つまり、フェイスブックのアルゴリズムによるコンテンツ表示にバイアスがないか調べようにも対比するうまい相手がいないのだ。

つまり私たちの前にあるのは、非常に強力だが中身の見えない「ブラックボックス」だ。2010年のフェイスブックの研究によれば、友達が投票に行ったという投稿を見せるだけでユーザーに投票を促す効果が得られたという。これは無作為に選ばれたユーザーを対象とした研究であり、特定の候補の支持者だけに投票を働きかけた送ったわけではない。

だが、そういうことが起きる可能性は否定できない。そして、もしそんな事態になっても、ユーザーは何も気づかないかもしれない。

(執筆:Farhad Manjooコラムニスト、翻訳:村井裕美)

(c) 2016 New York Times News Service
 

ビジネスの人気記事
トピックボードAD
関連記事
  • CSR企業総覧
  • Amazon週間ビジネス・経済書ランキング
  • ソロモンの時代―結婚しない人々の実像―
  • 「脱ゆとり世代」のリアル
トレンドライブラリーAD
アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
  • シェア
トレンドウォッチAD
現場に厳しく、幹部に甘い<br>日本郵便・社員大量処分の杜撰

かんぽ生命の不適正販売をめぐって、社員の大量処分が進んでいますが、その現場からは不満の声ばかり聞こえてきます。営業現場に責任を押し付けるのではなく、日本郵便の本社・支社、かんぽが自らの非を認める日はいつ訪れるのでしょうか。

東洋経済education×ICT