真相はやがて明らかになる。半自動化されたプログラムが、間違ってファイサル氏の親族を殺害者リストに載せてしまっていたのだ。
米国政府は身元を特定できていない人物をドローンで攻撃したことを認めている。米情報機関はイエメンにディープな人的情報源を持たないため、別の方法で取得したデータをAIで処理し、標的を選び出している。ミサイル自体は人間が操作しているとはいえ、殺害がアルゴリズムの決定に従って実行されているのは間違いない。
「顔認識システム」誤検知率はなんと98%
この種の攻撃は「識別特性爆撃」と呼ばれる。ドローン攻撃の大半を占め、AIにまつわる脅威の中でもとりわけ激しい反発を招いている。問題は今年春、米グーグルにも波及した。AIを使ってドローン映像を分析する技術を米国防総省向けに開発するというプロジェクトに何千人もの従業員が抗議し、離職する者まで現れた。
AIの濫用が懸念されるのは、もちろんドローン攻撃だけではない。たとえば、AIを使った犯罪予測・治安対策のせいで、刑事司法制度における人種差別が一段と深刻化している。顔認識で容疑者を特定するシステムを、英ロンドンなどの警察が試験的に導入しているが、誤検知率はなんと98%にも達する。
ネット通販では顧客の特性に合わせて任意に価格を変えられるため、ほかの顧客よりも高い代金を支払わされている人がいる。フェイスブック上の情報を操作してプロパガンダを繰り広げる国があるのは、ご存じのとおりだ。
AIは発展途上の技術だと言う専門家もいる。だとすれば、私たちは、人を殺す決断をも発展途上の技術に委ねていることになる。
このように背徳的な用途にAIが使われている実態を暴き出し監視していくことは、人権上、最も緊急性の高い課題だ。ビッグデータの活用を誰かが言いだしたら、こう問わなければならない。アルゴリズムを支配する者をどうチェックしていくつもりなのか、と。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら