誰もがハマる「YouTube」は、本当に安全な場所か 本社のナンバー2が語る成長と責任(前編)
――では実際、ガイドラインをどう運用するのですか。
重要なのは、ガイドラインに反している可能性のある動画をいかに迅速に検知し、ユーザーが触れないうちに削除できるかということ。私たちはテクノロジーと人間の組み合わせでこれを行っている。AI(人工知能)や機械学習の技術には過去数年間で重点的に投資し、数十億の動画から規定違反の可能性のあるものを検知し、リストアップする仕組みを開発してきた。
ただ、アルゴリズムは微妙なニュアンスを察知することはできないため、その後に人間による判断が加わる。リストアップされた段階では、違反の可能性がある動画数が人間の扱いやすい数まで減っている。ユーチューブでは約1万人の評価者を雇い、ガイドラインを執行するための研修をしてきた。
人間にしかわからないニュアンス
――「微妙なニュアンス」とは?
例えば、過激派組織「イスラム国(IS)」が投稿したとみられる動画をアルゴリズムが検知したとする。ただ、実際にはそれが何らかの宗教の説教であり、投稿として問題がないのかもしれない、あるいは、本当に(ISによる)暗号のような言葉で暴力を呼びかけており、削除すべきものなのかもしれない。
ある動画に危険ないたずらや嫌がらせの描写があったとする。もし「こういうことをしてはいけません」と呼びかけている動画であったらどうだろう。こうした微妙な違いがわかるのは人間だけであり、素早く判断できるように評価者を育成している。
――ガイドラインが変わっていくにつれて、これらの仕組みはどのように変わるのでしょうか。
大前提として、ガイドラインの制定自体が正確で適切なものかどうかが重要だ。根本となるルールについてクリエーターたちが理解できるようにしつつ、人間の評価者がきちんと意思決定できるように明確なものでなければならない。もちろんわれわれは専門家ではないので、嫌がらせやヘイトスピーチなどといった分野では、世界中の第三者機関と話し合う。
新たなルールが明確に定義できた段階で、違反の可能性がある動画の分類を始める。ガイドライン改定後初期の動画がアルゴリズムの学習データとなり、データが増えれば増えるほど、アルゴリズムが改善する。この繰り返しだ。ガイドラインの執行に関しては、こうして毎週改善が進んでいる。
実際、前の四半期(2019年4~6月)にはアルゴリズムと人間によって、約900万の動画が削除された。このうち75%はユーザーが1度も閲覧しないまま削除されている。これは大きな数字に聞こえるだろう。ただ、ユーチューブ全体の動画総数の1%にも満たない。
無料会員登録はこちら
ログインはこちら