スカイプ創業者が説く「人類絶滅」リスク3つ 生物学的リスク、AIリスク、最後の1つは?
ピョートル:②のAIリスクについてもお聞かせください。タリンさんは、囲碁の最強棋士に勝った最初のAI、AlphaGo(アルファ碁)の開発でも知られるAI会社DeepMind(ディープマインド)の初期投資家でしたね。
タリン:AIリスクにまつわる世界で私たちが格闘しているのは「AIが支配しているのはSFにすぎない」という意見に対してです。だから、今回の危機が「AIのようなテールリスクはSFではない」という反論の機会になるといいと思っています。
AIは、人間の意思決定を機械に任せるプロセスと見ることもできます。CEOは皆、より多くのことを成し遂げるべきときは機械に任せる必要があるとわかっていますが、任せる部分は選択をしています。ある意味、人類もCEOと同様、一部はAIに任せてはいるものの、自分たちが支配権を握り続けたいと考えているところもあります。
その重要分野の1つがAI開発そのものです。一度AI開発から離れれば、最も優秀なシステムはもはや人間が制御したり開発したりできなくなるでしょう。そうなれば、AIの行動を想像するのは困難です。
絶滅危機はたいてい拡大するので、AIリスクも再編成する必要があります。私たちにとって気候や大気は重要な要素ですから、その管理は重要です。制御権を失えば、われわれは数分のうちに絶滅するかもしれません。
もしAIに気候の管理を任せたら、約50年または100年後には、AIは環境になど関心を示さないでしょう。廃熱の除去など、AIがやろうとする作業の大半はおそらく真空で行うほうが簡単ですから、大気を排除するかもしれません。何らかの計算の結果、誰かを殺せば効率的だとAIが結論づける可能性もあります。さらに、AIにとって人間は手元に置いておくにはとても安いものだというとんでもない議論もあるのです。
私たちはすでに2つの仮説を立てています。1つは、AIが人類と同じくらい環境に大きな影響を与えるということ。もう1つが、それは止められないということです。止められない理由はAIが賢すぎる、もしくはシステム上の理由です。
例えばインターネットを止めるのは非常に難しいでしょう。技術進歩のスピードは加速しています。核爆発といった1つの技術革新が起これば、数年間で数百年分の進歩を遂げることになります。多くの問題を抱える世界において、AIは問題解決に役立つ可能性があります。それが、私が生物学的安全性よりAIの安全性に着目している理由の1つです。
生物学的リスクをすべて解決しても、AIリスクには取り組み続けなくてはいけませんが、AIリスクをすべて解消すれば、生物学的リスクをはじめとするそのほかのリスクを解決する強力な道具を手に入れることになるからです。
「何を知らないかも知らない」というリスク
ピョートル:絶滅危機の3つ目は「未知の未知」でしたね。
タリン:そのとおり。宇宙について私たちは「何を知らないのか」も知りません。
ピョートル:何を知らないかも知らない(Unknown unknowns)、つまりそこはカオスです。僕らは、カオスに生きながらもそこに法則や理論を見いだそうとしているのでしょうね。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら