有料会員限定

「小さな実験」でAIの本当の害をあぶり出せ 見えない害の可視化を急ぐべき

✎ 1〜 ✎ 730 ✎ 731 ✎ 732 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
イーロン・マスク氏
イーロン・マスク氏(写真:アフロ)

人工知能(AI)は過去の画期的な技術よりも大きな脅威をもたらすと理解されている。人間の仕事が置き換えられるだけではなく、人類滅亡の可能性が懸念されているのだ。

2023年3月、1000人を超す専門家や経済界の重鎮らがいわゆる「一時停止」書簡に署名した。すべてのAI開発機関に対し「GPT-4より強力なAIシステムの訓練」を少なくとも6カ月間停止するよう求めたものだ。名を連ねたAI研究の第一人者ヨシュア・ベンジオ氏や経済学者のダロン・アセモグル氏、富豪のテクノロジー起業家イーロン・マスク氏らはとても無視できるような人々ではないが、私の知る限り、彼らは無視された。一時停止が行われた形跡が見られないからだ。

AIの潜在的な害とは

書簡に署名した専門家たちは、ある活動が取り返しのつかない害をもたらすおそれがある場合には活動を遅らせて知見を深めるという予防原則に立っていた。だが、AI技術の迅速な開発を呼びかける専門家も、慎重さに重きを置く専門家と同じくらいいる。私たちの多くは過去10年以上にわたり、AIのすばらしい進化が市場にもたらされるのを目にしてきた。がんの検知や、障害者を助けるツール、高齢者の移動の自立性を高める自動運転車などの技術は画期的な進歩を遂げている。

関連記事
トピックボードAD