スカイプ創業者が説く「人類絶滅」リスク3つ 生物学的リスク、AIリスク、最後の1つは?
エストニアで理論物理学を研究した後、スカイプを設立。現在は、エンジェル投資家としてテクノロジースタートアップへの投資を手がける一方で、囲碁棋士に勝ったAIのAlphaGoを設計したDeep Mindなどに出資。
世界的危機がリーダーシップの優劣をあぶり出す
タリン:今、私たちは、現代では誰も経験したことのない惑星レベルのリスクに直面しています。しかし、「テールリスク」と呼ばれるこの壊滅リスクは非常にわかりにくい。だから人々は無視するか、考えたくないという態度をとっています。
私の考えでは、人類を一掃する可能性のある最大のリスクは、①生物学的リスク、②AI、③未知の未知、の3つ。ここ10年、私は投資と慈善活動に半分ずつの時間を費やしてきましたが、今後は投資の時間を減らし、人類にとって本当に重要なことに集中しようと思っています。
ピョートル:新型コロナウイルスは、明らかに①生物学的リスクですね。タリンさんはこの新型コロナウイルスをどのように捉えているのでしょうか。
タリン:スタートアップの人々が使う「MinimumViable Product(実用最小限の製品)」という表現をもじって、私はこのウイルスを「MinimumViable Global Catastrophe(実用最小限のグローバル大災害)」と呼んでいます。世界的大災害と呼ぶにふさわしいものではありますが、人類の存在への影響はそれほど強烈ではない。今回のことで人類が一掃されることはないでしょう。
ただし、人類が同じようなリスクに直面する可能性があることはわかりました。これが、人類の外側にある問題、つまり新型コロナウイルスのような種全体に影響を及ぼす問題を抱えた意義だと思います。
無料会員登録はこちら
ログインはこちら