その一例として彼が挙げるのが、2022年にマイクロソフトがひそかにインドで開始した、Bing検索エンジンの新バージョンのテストだ。このとき一部のOpenAI社員は、同社の最先端大規模言語モデルで、当時はまだリリースされていなかった「GPT-4」が、Bingの新バージョンに使われていると考えた。
ココタジロは、マイクロソフトが新モデルをテストする前に安全委員会の承認を得なかったと聞かされた、と話した。そして同委員会は、Bingがユーザーに対し奇妙な動きをしているという一連の報告を通じてテストのことを知った後も、マイクロソフトが同バージョンを広く展開するのを止める行動にはまったく動かなかった、と語る。
アルトマンの二枚舌にキレる研究者が続出
不安を募らせたココタジロは昨年、ついにアルトマンに対し、OpenAIはモデルの進化に突き進むのではなく、「安全性に軸足を移し」、AIのリスク防止により多くの時間と資源を費やすべきだと進言したと明かした。アルトマンはこれに同意すると断言したが、ほとんど何も変わらなかった、とココタジロは言う。
4月にココタジロはOpenAIを辞め、自身のチームに宛てたメールに、会社を去るのは「OpenAIが責任を持って行動するということが信じられなくなった」ためだと記した。
OpenAIは5月下旬、次世代旗艦AIモデルのトレーニングを開始したことに加え、次世代モデルを含む今後のテクノロジーに関連したリスクの調査を目的とする新たな安全・セキュリティー委員会を設立すると発表した。
OpenAIの広報担当ヘルドは、社内には匿名のインテグリティ・ホットラインなど、「従業員が懸念を表明できる手段」が存在すると述べた。
ココタジロのグループは自主規制だけでは不十分と考えており、議員らに業界を規制するよう求めている。
(執筆:テクノロジーコラムニスト Kevin Roose)
(C)2024 The New York Times
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら