テロリストがAIで世界を壊滅させる…歴史学者ハラリが示す人類の「危険シナリオ」

AIの台頭が人類の存続にかかわる危険をもたらす
コンピューターはまだ、私たちの制御を完全に脱したり、自力で人間の文明を破壊したりするほど強力ではない。人類が団結しているかぎり、私たちはさまざまな機関を構築して、金融の領域においてであろうと戦場においてであろうとAIを統制することができる。だが残念ながら、全人類が団結したことはかつてない。私たちはつねに、悪人につきまとわれてきた。そして、善人どうしの意見の相違も絶えたことがない。AIの台頭が人類の存続にかかわる危険をもたらすのは、コンピューターの悪意のせいではなく、私たち自身の至らなさのせいだ。
たとえば、被害妄想を抱く独裁者は、核攻撃を開始する権限さえも含め、無制限の権力を可謬のAIに与えかねない。そしてそのAIが誤りを犯したり、予想外の目標を追い求め始めたりしたら、その結果は壊滅的なものになりうる。それも、その国だけではなく全人類にとって。テロリストがAIを使ってパンデミックを引き起こすことも考えられる。テロリストたち自身は疫学の知識をほとんど持ち合わせていないかもしれないが、AIは彼らのために新しい病原体を合成したり、商業用の実験施設に注文したり、バイオ3Dプリンターでプリントしたりし、空港やフードサプライチェーンを通して、それを世界中に拡散させる最善の戦略を練ることができるだろう。
もしAIが合成したウイルスが、エボラウイルス並みに致死性が高く、新型コロナウイルス並みの感染力を持ち、HIV並みに遅発性だったらどうなるのか? 最初の犠牲者たちが亡くなり始め、世界がその危険に気づいた頃には、地球上のほとんどの人がすでに感染しているなどという事態になりかねない。
無料会員登録はこちら
ログインはこちら