「OpenAIは無謀に暴走」今度は元幹部らが内部告発 安全性をあまりにもないがしろにしている懸念

✎ 1〜 ✎ 7 ✎ 8 ✎ 9 ✎ 10
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

5月には、イリヤ・サツキバーとヤン・ライカという2人の上級AI研究者が、渦中のOpenAIを去った。サツキバーはOpenAIの取締役としてアルトマンの解任に賛成票を投じた人物で、強力なAIシステムの潜在的なリスクについて警鐘を鳴らしてきた。安全性を重視する一部の社員は、サツキバーの退社を「敗北」と受け止めている。

サツキバーとともに、強力なAIモデルのリスク管理に注力する「スーパーアラインメント」チームを率いてきたライカの退社も、同様の打撃となった。自身の退社を発表する一連の公開投稿の中で、ライカは「安全重視の文化とプロセスは、光り輝く製品の二の次になった」と述べた。

サツキバーとライカのどちらも、元社員らが書いた公開書簡には署名していないが、2人の退社をきっかけに他のOpenAI元社員たちも声を上げるようになった。

安全確保の仕組みは単なる見せかけ

31歳のココタジロは、2022年にガバナンス研究者としてOpenAIに入社し、AIの進歩を予測する任務を与えられた。彼の予測は、控え目に言っても楽観的なものではなかった。

AIの安全性に関する組織に所属していた前職で、ココタジロはAGIが2050年に登場する可能性を予測していた。しかし、AIの進歩の速さを目の当たりにして、その時期を前倒しした。今では2027年、つまりわずかあと3年でAGIが登場する可能性は50%あるとする。

また、高度なAIが人類を滅ぼすか、壊滅的な危害を与える可能性が70%に達していると彼は考えている。

ココタジロは、新しいモデルを一般公開する前に重大なリスクがないかレビューすることになっていた「展開安全委員会」と呼ばれるマイクロソフトとの共同の取り組みなど、OpenAIには安全のためのプロトコル(手続き)が導入されていたにもかかわらず、それが歯止めとして機能することはほとんどないことに気がついた。

関連記事
トピックボードAD
ビジネスの人気記事