OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
OpenAIサム・アルトマンCEO解任劇の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられているが…(撮影:尾形文繁)

11月半ば、OpenAIに起きた突然の内紛は、同社取締役会のメンバー刷新に伴うガバナンス強化、という形で幕を閉じた。

現状でもなぜ内紛が起きたのかは、内部からのリークなどをソースとした「臆測記事」がほとんどであるのが実情であり、確たる証拠のある情報が出ているわけではない。ただ多くの記事では、生成AIの開発についての今後の方針、特に倫理面での考え方について、意見が分かれたとする説が採られている。

生成AIと倫理の間にはどんな関係があるのか、ここで少し情報を整理しておきたい。

忘れられた「3月の公開書簡」

今年の3月、アメリカの非営利団体Future of Life Institute(FLI)が、ある公開書簡を発表した。

その内容は、「高性能なAIは危険性を孕んでおり、制御不可能になった場合のリスクが大きい。生成AIは性能が急速に向上しており、リスクの見極めが必要であるので、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ」というものだった。

この公開書簡には、イーロン・マスクやスティーブ・ウォズニアックなどのテック業界の大物のほか、AI研究の大御所でモントリオール大教授のヨシュア・ベンジオをはじめとするAI研究者も多くサインしている。

そのことから当時は注目されたものの、結論から言えば、ほぼ無視される形になった。生成AIの学習は停止されず、むしろ大規模化が進行中だ。

関連記事
トピックボードAD
ビジネスの人気記事