テロリストがAIで世界を壊滅させる…歴史学者ハラリが示す人類の「危険シナリオ」

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ユヴァル・ノア・ハラリ(写真:©Renji Tachibana)
「銃を手にしたロボットたちが市街を暴れ回るといった、ハリウッド映画の場面は忘れたほうがいい。現実には、AIはそれよりもはるかに危険だ」
歴史家で著述家のユヴァル・ノア・ハラリが、『NEXUS 情報の人類史』(柴田裕之訳)でそう警告する。以下は同書から抜粋・再構成したものだ。
前回記事:人間の頭脳を超えたAI登場で何が起こるか…歴史学者ハラリがAIの進化に警鐘を鳴らす理由

AIの台頭が人類の存続にかかわる危険をもたらす

コンピューターはまだ、私たちの制御を完全に脱したり、自力で人間の文明を破壊したりするほど強力ではない。人類が団結しているかぎり、私たちはさまざまな機関を構築して、金融の領域においてであろうと戦場においてであろうとAIを統制することができる。だが残念ながら、全人類が団結したことはかつてない。私たちはつねに、悪人につきまとわれてきた。そして、善人どうしの意見の相違も絶えたことがない。AIの台頭が人類の存続にかかわる危険をもたらすのは、コンピューターの悪意のせいではなく、私たち自身の至らなさのせいだ。

たとえば、被害妄想を抱く独裁者は、核攻撃を開始する権限さえも含め、無制限の権力を可謬のAIに与えかねない。そしてそのAIが誤りを犯したり、予想外の目標を追い求め始めたりしたら、その結果は壊滅的なものになりうる。それも、その国だけではなく全人類にとって。テロリストがAIを使ってパンデミックを引き起こすことも考えられる。テロリストたち自身は疫学の知識をほとんど持ち合わせていないかもしれないが、AIは彼らのために新しい病原体を合成したり、商業用の実験施設に注文したり、バイオ3Dプリンターでプリントしたりし、空港やフードサプライチェーンを通して、それを世界中に拡散させる最善の戦略を練ることができるだろう。

もしAIが合成したウイルスが、エボラウイルス並みに致死性が高く、新型コロナウイルス並みの感染力を持ち、HIV並みに遅発性だったらどうなるのか? 最初の犠牲者たちが亡くなり始め、世界がその危険に気づいた頃には、地球上のほとんどの人がすでに感染しているなどという事態になりかねない。

次ページはこちら
関連記事
トピックボードAD
キャリア・教育の人気記事