グーグル社員の猛抗議が問う「軍事AI」の是非 AI活用原則を発表、国防総省と契約更新せず
「グーグルは戦争ビジネスにかかわるべきではない」「この計画はグーグルのブランドや採用競争力に対し、取り返しが付かないほどのダメージを与える」「われわれの技術の道徳的な責任を第三者に委ねてはならない」
米IT大手グーグルで今春、社員の間で回覧されたスンダー・ピチャイCEO宛ての書簡にはこうした文言が並んでいた。同社のクラウド部門が昨年9月に米国防総省と結んだ軍事用無人飛行機(ドローン)向けのAI(人工知能)開発契約、通称「プロジェクト・メイブン」に対する反対運動である。米メディアによれば、4000人を超える社員がこの書簡に署名したほか、一部社員が辞職する事態に発展した。
「邪悪になるな」の文化が社員を動かした
プロジェクト・メイブンは、ドローンで撮影した低解像度の映像における物体認識にAIを活用するというもの。グーグルは今年3月、「これは国防総省との試験プロジェクトであり、物体認識を補助するオープンソースの機械学習API(アプリケーション・プログラミング・インターフェース)を提供している。技術は非攻撃的な使用に限られている」と説明していた。
グーグルの社是には、「Don't be evil(邪悪になるな)」というものがある。ユーザーに最良の製品やサービスを届けるとともに、社員としてよい行いをせよというメッセージだ。これがアイデンティティーとなっている多くの社員は、プロジェクトへの参加自体を問題視した。
こうした動きを受け、ピチャイCEOは6月7日、AIの開発や活用に関する7つの基本方針を発表した。「社会にとって有益である」「不公平なバイアス(偏向)の発生、助長を防ぐ」「安全性確保を念頭に置き、開発・試験を行う」「人々への説明責任を果たす」などといったものだ。ただ抽象的な表現が多く、細かな解釈については意見が分かれそうだ。
AIの提供をしない分野についても、「人々に危害を与える武器またはその他の技術」「国際的な規範に反する監視のために、情報を収集し利用する技術」などと明示し、武器となるAIの開発はしないことを宣言した。ここまで踏み込んだ指針は、IT企業であまり例がない。
無料会員登録はこちら
ログインはこちら