
(写真:metamorworks/PIXTA)
人工知能(AI)が巨大産業化する中、中国、米国、英国、欧州連合(EU)はAIの安全を最優先課題に掲げるようになっている。自動車、医薬品から工作機械、芝刈り機に至るまで、どのような技術であっても可能な限り安全に使えるように設計されるべきなのは言うまでもない(ソーシャルメディアも、登場当初に安全面のチェックがもっとしっかりと行われていればよかったのだが)。
しかし、安全への意識を高めるだけでは不十分だ。AIの安全をめぐる議論はあまりにも「AGI(汎用人工知能)がもたらす破滅的リスク」に集中しすぎている。AGIは、大半の認知タスクで人類を凌駕する能力を持つ超知能のことで、そこでは利用者や設計者の狙いや価値観に合致した結果が生成されるのかどうかという「アライメント」が問題になっている。人工の超知能(スーパーインテリジェントAI)が現れて人類を破滅させるというSF的なシナリオにつながるトピックだ。
トピックボードAD
有料会員限定記事
無料会員登録はこちら
ログインはこちら