OpenAI内紛の火種「AIの倫理と危険性」の正体 取り沙汰される「効果的利他主義」という考え方

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

グーグルが12月6日に発表した「Gemini(ジェミニ)」は、ゼロから学習し直した生成AI。性能の指針となるパラメーター数は公開されていないが、同社が今年5月から使ってきた「PaLM 2」よりもかなり規模が大きくなっていることは間違いない。

OpenAIも、GPT-4の改良・追加学習をずっと続けている。公開当時は2021年9月までの情報を学習した形だったが、11月に公開された「GPT-4 Turbo」以降は2023年4月までの情報で再学習が行われている。

OpenAIやマイクロソフト、グーグルなどは、FLIの公開書簡に反応をしなかった。一時は騒がれたものの、結局なにも起こらなかった。

大手も「AIの規制」には協力的

なぜなのか?

大手が利己的に技術を優先した、と考えがちだし、そうした側面もゼロではないだろう。

ただ、彼らが生成AIの危険性を意識していないのか、というとそうではない。

ビッグテック規制論が幅をきかせ、大手はそのことに反発の姿勢を示すことは多いものの、生成AIの活用ルールに「各国政府に協力する」姿勢を明確に示している。OpenAIのサム・アルトマンCEOにしろ、グーグルのスンダー・ピチャイCEOにしろ、生成AIの活用ルール策定という面では、政府による規制には前向きな姿勢を示している。

生成AIにはハルシネーション(間違った情報)の生成やフェイク作成への活用といった課題がつきまとっており、その対策は必須だ。12月14日には、自民党デジタル社会推進本部が、法制化を前提とした「AIの安全性確保と活用促進に関する緊急提言」をまとめた。政府も年内に、これに沿う新ガイドラインを年内に策定する予定だ。

国際的にルールが作られ、そのルールの中でビジネスを加速するのが1つの既定路線であり、各国も大手もその中で動いている。もちろんそれは「危険性」を理解しているからでもあるわけだ。

そもそもアルトマンCEOは、ChatGPTフィーバーの最中である今年前半、世界各地を回ってメディアに対応、「AIの活用には危険が伴う」こともアピールしていた。彼ら自身が、急速な発展に伴う危険性や倫理の問題に向き合う姿勢を示していたわけだ。

関連記事
トピックボードAD
ビジネスの人気記事