人工知能(AI)が巨大産業化する中、中国、米国、英国、欧州連合(EU)はAIの安全を最優先課題に掲げるようになっている。自動車、医薬品から工作機械、芝刈り機に至るまで、どのような技術であっても可能な限り安全に使えるように設計されるべきなのは言うまでもない(ソーシャルメディアも、登場当初に安全面のチェックがもっとしっかりと行われていればよかったのだが)。
しかし、安全への意識を高めるだけでは不十分だ。AIの安全をめぐる議論はあまりにも「AGI(汎用人工知能)がもたらす破滅的リスク」に集中しすぎている。AGIは、大半の認知タスクで人類を凌駕する能力を持つ超知能のことで、そこでは利用者や設計者の狙いや価値観に合致した結果が生成されるのかどうかという「アライメント」が問題になっている。人工の超知能(スーパーインテリジェントAI)が現れて人類を破滅させるというSF的なシナリオにつながるトピックだ。
この記事は有料会員限定です。
ログイン(会員の方はこちら)
有料会員登録
東洋経済オンライン有料会員にご登録いただくと、有料会員限定記事を含むすべての記事と、『週刊東洋経済』電子版をお読みいただけます。
- 有料会員限定記事を含むすべての記事が読める
- 『週刊東洋経済』電子版の最新号とバックナンバーが読み放題
- 有料会員限定メールマガジンをお届け
- 各種イベント・セミナーご優待
トピックボードAD
有料会員限定記事
無料会員登録はこちら
ログインはこちら