有料会員限定

AIを危険にするのは技術ではなく「支配者」だ SF的な"超知能"ではなく、危険は身近にある

✎ 1〜 ✎ 737 ✎ 738 ✎ 739 ✎ 740
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
AI・人工知能イメージ写真
(写真:metamorworks/PIXTA)

人工知能(AI)が巨大産業化する中、中国、米国、英国、欧州連合(EU)はAIの安全を最優先課題に掲げるようになっている。自動車、医薬品から工作機械、芝刈り機に至るまで、どのような技術であっても可能な限り安全に使えるように設計されるべきなのは言うまでもない(ソーシャルメディアも、登場当初に安全面のチェックがもっとしっかりと行われていればよかったのだが)。

しかし、安全への意識を高めるだけでは不十分だ。AIの安全をめぐる議論はあまりにも「AGI(汎用人工知能)がもたらす破滅的リスク」に集中しすぎている。AGIは、大半の認知タスクで人類を凌駕する能力を持つ超知能のことで、そこでは利用者や設計者の狙いや価値観に合致した結果が生成されるのかどうかという「アライメント」が問題になっている。人工の超知能(スーパーインテリジェントAI)が現れて人類を破滅させるというSF的なシナリオにつながるトピックだ。

関連記事
トピックボードAD