だがそれでも、冒頭で挙げたFLIによる懸念表明は、ほぼ無視された形である。
なぜなのか?
結局のところ、もっとも大きな要因は「懸念がどこまで正しく、切迫したものであるのか、誰も正確に答えることができない」からでもある。
生成AIが急激に賢くなり、人間に近い論理的思考や分析力を持つ時代は確実にやってくる。ただ、そこまでに超えなければいけない山はまだ多数ある状況だ。
2020年にGPT-3が発表され、2022年11月にChatGPTが公開されてからまだ1年くらいしか経ってない。だが、特に2023年中に起きた生成AIの進化はめざましかった。いきなり来年、数々の山を越えて「汎用人工知能(AGI)」が実現する可能性も、まったくのゼロとは言い切れない。
ただ逆に、5年経ってもAGIに達成していない可能性もある。
重要なのは「誰も明確なことは言えない」という点に尽きる。
そこで「まずは止まって考え直すべきだ」という人々がいる一方で、「作らないと先は見えない」と考える人々もいる。アルトマンCEOは明確に後者の立場である。
内紛の発端は「効果的利他主義」か
OpenAIでの内紛も、結局は「止まるべきか加速すべきか」に発火点があったのではないか……と言われている。
そこで取り沙汰されるのが「効果的利他主義(Effective Altruism、EA)」と呼ばれる考え方だ。
EAとは、社会貢献を考えるうえで、効率とインパクトの最大化を重視する思想のこと。社会に貢献することを考える際に、その行為がどれだけ効果を上げるかを数値化して把握し、功利の最適化を目指す。
発想自体は特に過激なものでも、問題があるものでもないように思えるが、特に昨今は、シリコンバレーではEAがある種の「思想」として語られるようになってきた。EAを信奉する人々と、あくまで1つの考え方とする人々の間に溝ができ始めているのだ。
ウォール・ストリート・ジャーナルは11月24日、OpenAIの内紛が「EAをめぐるもの」とした記事を掲載した。
OpenAIはその名のとおり、「オープンにAIを研究する組織」として生まれた。それはEAの思想にも通じたものだ。
無料会員登録はこちら
ログインはこちら