人工知能(AI)が巨大産業化する中、中国、米国、英国、欧州連合(EU)はAIの安全を最優先課題に掲げるようになっている。自動車、医薬品から工作機械、芝刈り機に至るまで、どのような技術であっても可能な限り安全に使えるように設計されるべきなのは言うまでもない(ソーシャルメディアも、登場当初に安全面のチェックがもっとしっかりと行われていればよかったのだが)。
しかし、安全への意識を高めるだけでは不十分だ。AIの安全をめぐる議論はあまりにも「AGI(汎用人工知能)がもたらす破滅的リスク」に集中しすぎている。AGIは、大半の認知タスクで人類を凌駕する能力を持つ超知能のことで、そこでは利用者や設計者の狙いや価値観に合致した結果が生成されるのかどうかという「アライメント」が問題になっている。人工の超知能(スーパーインテリジェントAI)が現れて人類を破滅させるというSF的なシナリオにつながるトピックだ。
この記事は有料会員限定です。
ログイン(会員の方はこちら)
有料会員登録
東洋経済オンライン有料会員にご登録頂くと、週刊東洋経済のバックナンバーやオリジナル記事などが読み放題でご利用頂けます。
- 週刊東洋経済のバックナンバー(PDF版)約1,000冊が読み放題
- 東洋経済のオリジナル記事1,000本以上が読み放題
- おすすめ情報をメルマガでお届け
- 限定セミナーにご招待
トピックボードAD
有料会員限定記事
無料会員登録はこちら
ログインはこちら