グーグル「AIコード公開」が投げかける重大論点 少数企業の独占とオープンソース、安全性は?

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

グーグルはかつて、AIチャットボットの基盤技術も含め、自社の主要なAI技術の多くをオープンソースにしていた。が、オープンAIからの競争圧力にさらされた結果、秘密主義の色合いを濃くしていった。

グーグルがAIを再び自由に利用できるようにする決断を行ったのは、開発者から関心を寄せられていたためだ、と同社の開発者関係担当バイスプレジデント、ジェニーン・バンクスはインタビューで語った。

グーグルは安全性に自信

グーグルによると、同社はジェマ技術の公開に備え、安全性の確保に努めたと述べ、この技術を使ってデマなどの有害コンテンツを拡散することはソフトウェアライセンスに違反するとしている。

「専有技術の領域とオープンな領域のいずれにおいても、完全に安全なものを公開できるよう最大限努めている。2Bと7Bモデルの公開にあたっては、これらのモデルが業界でうまく受け入れられるよう、極めて安全かつ責任あるやり方を採用していることにまずまずの自信がある」とウォーケンティンは語った。

それでも、悪人たちがこうした技術を悪用して問題を起こす可能性は残されている。

グーグルは、インターネットから収集した膨大なデジタルテキストで訓練されたシステムをダウンロードすることを認め始めた。これについて研究者たちは、データを分析する中でシステムが学んだ特定の数学的価値を指して、「大きなものを開放する行為」だとしている。

こうしたデータの分析には通常、何百、何千という専用のコンピューターチップや数千万ドルのコストを要する。そのような資源は、個人は言うまでもなく、大部分の組織にはないものだ。

(執筆:Cade Metz記者、Nico Grant記者)
(C)2024 The New York Times

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ビジネスの人気記事