スカイプ創業者が説く「人類絶滅」リスク3つ 生物学的リスク、AIリスク、最後の1つは?

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
人類を一掃してしまうようなリスクとは……?(写真:D-Keine/iStock) 
AIの台頭、新型ウイルスの脅威など、先の見えない現代。世界は、思想や価値観、社会観念といったパラダイムが劇的に変化する大きなターニングポイントを迎えています。
新著『パラダイムシフト 新しい世界をつくる本質的な問いを議論しよう』では、多様な分野のトップランナーたちが「これからの世界」について語っています。
本稿では、スカイプの共同創業者でAlphaGoの投資家などの顔も持つヤン・タリン氏へのインタビューをお届けします。
ヤン・タリンさんプロフィール】
エストニアで理論物理学を研究した後、スカイプを設立。現在は、エンジェル投資家としてテクノロジースタートアップへの投資を手がける一方で、囲碁棋士に勝ったAIのAlphaGoを設計したDeep Mindなどに出資。

世界的危機がリーダーシップの優劣をあぶり出す

タリン:今、私たちは、現代では誰も経験したことのない惑星レベルのリスクに直面しています。しかし、「テールリスク」と呼ばれるこの壊滅リスクは非常にわかりにくい。だから人々は無視するか、考えたくないという態度をとっています。

私の考えでは、人類を一掃する可能性のある最大のリスクは、①生物学的リスク、②AI、③未知の未知、の3つ。ここ10年、私は投資と慈善活動に半分ずつの時間を費やしてきましたが、今後は投資の時間を減らし、人類にとって本当に重要なことに集中しようと思っています。

ピョートル:新型コロナウイルスは、明らかに①生物学的リスクですね。タリンさんはこの新型コロナウイルスをどのように捉えているのでしょうか。

タリン:スタートアップの人々が使う「MinimumViable Product(実用最小限の製品)」という表現をもじって、私はこのウイルスを「MinimumViable Global Catastrophe(実用最小限のグローバル大災害)」と呼んでいます。世界的大災害と呼ぶにふさわしいものではありますが、人類の存在への影響はそれほど強烈ではない。今回のことで人類が一掃されることはないでしょう。

ただし、人類が同じようなリスクに直面する可能性があることはわかりました。これが、人類の外側にある問題、つまり新型コロナウイルスのような種全体に影響を及ぼす問題を抱えた意義だと思います。

次ページコロナの「将来的な」意義とは?
関連記事
トピックボードAD
キャリア・教育の人気記事