OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

だがそれでも、冒頭で挙げたFLIによる懸念表明は、ほぼ無視された形である。

なぜなのか?

結局のところ、もっとも大きな要因は「懸念がどこまで正しく、切迫したものであるのか、誰も正確に答えることができない」からでもある。

生成AIが急激に賢くなり、人間に近い論理的思考や分析力を持つ時代は確実にやってくる。ただ、そこまでに超えなければいけない山はまだ多数ある状況だ。

2020年にGPT-3が発表され、2022年11月にChatGPTが公開されてからまだ1年くらいしか経ってない。だが、特に2023年中に起きた生成AIの進化はめざましかった。いきなり来年、数々の山を越えて「汎用人工知能(AGI)」が実現する可能性も、まったくのゼロとは言い切れない。

ただ逆に、5年経ってもAGIに達成していない可能性もある。

重要なのは「誰も明確なことは言えない」という点に尽きる。

そこで「まずは止まって考え直すべきだ」という人々がいる一方で、「作らないと先は見えない」と考える人々もいる。アルトマンCEOは明確に後者の立場である。

内紛の発端は「効果的利他主義」か

OpenAIでの内紛も、結局は「止まるべきか加速すべきか」に発火点があったのではないか……と言われている。

そこで取り沙汰されるのが「効果的利他主義(Effective Altruism、EA)」と呼ばれる考え方だ。

EAとは、社会貢献を考えるうえで、効率とインパクトの最大化を重視する思想のこと。社会に貢献することを考える際に、その行為がどれだけ効果を上げるかを数値化して把握し、功利の最適化を目指す。

発想自体は特に過激なものでも、問題があるものでもないように思えるが、特に昨今は、シリコンバレーではEAがある種の「思想」として語られるようになってきた。EAを信奉する人々と、あくまで1つの考え方とする人々の間に溝ができ始めているのだ。

ウォール・ストリート・ジャーナルは11月24日、OpenAIの内紛が「EAをめぐるもの」とした記事を掲載した。

OpenAIはその名のとおり、「オープンにAIを研究する組織」として生まれた。それはEAの思想にも通じたものだ。

関連記事
トピックボードAD
ビジネスの人気記事