東洋経済オンラインとは
ビジネス #生成AI第2幕の行方

OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

8分で読める

INDEX

OpenAIサム・アルトマンCEO解任劇の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられているが…(撮影:尾形文繁)

11月半ば、OpenAIに起きた突然の内紛は、同社取締役会のメンバー刷新に伴うガバナンス強化、という形で幕を閉じた。

現状でもなぜ内紛が起きたのかは、内部からのリークなどをソースとした「臆測記事」がほとんどであるのが実情であり、確たる証拠のある情報が出ているわけではない。ただ多くの記事では、生成AIの開発についての今後の方針、特に倫理面での考え方について、意見が分かれたとする説が採られている。

生成AIと倫理の間にはどんな関係があるのか、ここで少し情報を整理しておきたい。

忘れられた「3月の公開書簡」

今年の3月、アメリカの非営利団体Future of Life Institute(FLI)が、ある公開書簡を発表した。

その内容は、「高性能なAIは危険性を孕んでおり、制御不可能になった場合のリスクが大きい。生成AIは性能が急速に向上しており、リスクの見極めが必要であるので、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ」というものだった。

この公開書簡には、イーロン・マスクやスティーブ・ウォズニアックなどのテック業界の大物のほか、AI研究の大御所でモントリオール大教授のヨシュア・ベンジオをはじめとするAI研究者も多くサインしている。

そのことから当時は注目されたものの、結論から言えば、ほぼ無視される形になった。生成AIの学習は停止されず、むしろ大規模化が進行中だ。

次ページが続きます

2/4 PAGES
3/4 PAGES
4/4 PAGES

こちらの記事もおすすめ

あなたにおすすめ

ビジネス

人気記事 HOT

※過去1週間以内の記事が対象