だが現在、OpenAIは、開発した生成AIをオープンなものとしていない。開発にはマイクロソフトの強力なサーバー資産を必要とすること、オープンな開発自体が、無責任な第三者による意図しない「AIの悪用」を招く可能性もあるからだ。
アルトマン氏の解任劇では、当時OpenAIのCSO(最高科学責任者)だったイリヤ・サツケバー氏との衝突があったと言われている。そして、ウォール・ストリート・ジャーナルの記事など複数のメディアで、その衝突の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられている。
サツケバー氏は今年7月から、OpenAI内で「スーパーアライメント」と呼ばれるチームを率いていた。これは、人間を超える能力を持つAIをどう監視すべきかを考える部隊であり、彼の懸念を示しているものでもある。
EAの思想性をどう考えるか、ここでは踏み込まない。ただアルトマンCEOはEAには否定的な立場であり、「ルールのもとに開発を加速し、その先を見る」という考え方を持っていた。そこである種保守的な立場であるEA支持者との間で軋轢が起きた……というのは、話としては筋が通る。
OpenAIは12月14日、AIの監視・解釈可能性など、安全性に関わるシステムに関する技術研究に、1000万ドルの助成金を出すと発表した。「スーパーアライメント」開発チームとともに、この基金は管理されていく。
チームは当面サツケバー氏がそのまま率いるとされており、社内の対立は少なくとも外見状、一段落したのだろうと思われる。
AIでも「オープン対クローズド」の対立
一方、AI開発のオープン性をどう考えるかは重要な課題である。
OpenAIのようにルールを守りながらもクローズドかつ大規模な体制で開発するのがいいのか、それとも、オープンな開発体制で「可視化」を重視するのがいいのか。
MetaやIBM、ソニーなど50社以上が集まり、12月6日には「AIアライアンス」が発足した。この業界団体は、あくまでオープン・イノベーションによる責任あるAI開発を目指すもの。Metaが音頭を取っていることもあり、クローズドなOpenAIやグーグルの対抗、という意味合いもありそうだ。
ただ、過去の歴史を見ると、クローズドな体制とオープンな体制は併存しており、これまでは、オープンな体制がクローズドなやり方を呑み込む形で進んできた。
同じことがAIでも起きるかどうか、今結論を出すことは難しいが、「AIの開発をどう進めるか」「開発に伴う倫理性をどう考えるか」という意味では、注目しておくべき流れではある。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら