歴史学者ハラリが警告「ロボットの人類襲撃」より恐ろしいAIの本当の脅威
私たちは大量のデータを貯め込んだというのに、あるいは貯め込んだせいだろうか、相変わらず温室効果ガスを大気中に放出し、海や川を汚染し、森林を伐採し、さまざまな生物の生息環境をまるごと破壊し、無数の種を絶滅に追い込み、自分自身の種の生態学的な基盤を危険にさらし続けている。そしてまた、水素爆弾から人類を滅亡させかねないウイルスまで、ますます強力な大量破壊兵器も製造している。各国の指導者は、こうした危険についての情報には事欠かないが、協働して解決策を見つける代わりに世界戦争にじりじりと近づいている。
いっそう多くの情報を手に入れれば、状況は良くなるのか――それとも悪くなるのか? まもなくわかるだろう。多くの企業や政府が、史上最強の情報テクノロジー、すなわちAIを開発しようと先を争っている。一流の起業家のうちには、アメリカの投資家マーク・アンドリーセンのように、AIがついに人類の問題をすべて解決するだろうと信じている人もいる。
2023年6月6日、アンドリーセンは「AIが世界を救う理由」と題する小論を発表した。それには、「良いことをお知らせしよう。AIは世界を破壊したりはしない。それどころか、世界を救うかもしれない」といった大胆な発言がちりばめられていた。彼は、こう締めくくっている。「AIの開発と普及は、私たちが恐れるべきリスクには程遠く、自らや子供たちや未来にとっての道徳的義務なのだ」
AIは人類にとって前代未聞の脅威
一方、懐疑的な人もいる。哲学者や社会学者だけではなく、ヨシュア・ベンジオやジェフリー・ヒントン、サム・アルトマン、イーロン・マスク、ムスタファ・スレイマンら、多くの一流のAI専門家や起業家は、AIが私たちの文明を破壊しうることを世間一般に警告してきた。AI研究者2778人を対象とした2023年の調査では、回答者の三分の一超が、最悪の場合、高度なAIが人類の絶滅という悲惨な結果につながる可能性を最低でも10パーセントと見積もった。
同年には、中国、アメリカ、イギリス、日本を含む30近い国の政府が、AIに関する「ブレッチリー宣言」に署名した。その宣言は、「これらのAIモデルの最も重大な能力から、意図的な、あるいは意図せぬ、深刻な、壊滅的でさえある害が生じる可能性がある」ことを認めるものだった。専門家や政府は、そのような終末論的な言葉を使いはしたが、叛乱を起こしたロボットが市街を駆け回って人々を銃撃するといったハリウッド映画のような場面を思い起こさせるつもりはない。そうした展開は現実になりそうになく、人々の注意を真の危険から逸らすだけだ。
AIが人類にとって前代未聞の脅威であるのは、AIは自ら決定を下したり新しい考えを生み出したりすることのできる史上初のテクノロジーだからだ。従来の人間の発明はすべて、人間に力を与えた。なぜなら、新しいツールがどれほど強力でも、その用途の決定権はつねに私たちの手中にとどまっていたからだ。核爆弾は誰を殺害するかを自分で決めないし、自らを改良したり、いっそう強力な爆弾を発明したりすることもできない。
それに引き換え、自律型のドローンは誰を殺害するかを自ら決めることができるし、AIは斬新な爆弾の設計方法や、前例のない軍事戦略や、より優れたAIを生み出すことができる。AIはツールではない――行為主体なのだ。AIにまつわる最大の脅威は、私たちがこの地上に無数の新しい強力な行為主体を呼び出していることであり、それらの行為主体は私たちを凌ぐ知性と想像力を持つ可能性があり、私たちにはそれらを十分に理解することも制御することもできない。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら