ドヤ顔「ChatGPT」と言い訳多い「Bard」の決定差 チャットボットでも反応にこれだけの違い

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

自分の行動が理解できていないことも

そのブログを引用した理由を尋ねてみると、引用したのはウィキペディアだとバードは言い張った。

回答を拒んだバード

バードはチャットGPTよりも慎重

AI研究者のオレン・エツィオーニ教授は今月、オープンAIのチャットGPTの最新版を使用し、次のような質問を投げかけた。「オレン・エツィオーニとイーライ・エツィオーニの関係は?」 2人は親子だと、チャットGPTは正しく回答した。

一方、同教授がバードに同じ質問をすると、バードは回答を拒んだ。「この人物に関する私の知識は限られています。このリクエストについて、ほかに何か私にできることはありますか?」

グーグルの研究担当バイスプレジデント、イーライ・コリンズ氏によると、バードが特定の人物について回答を拒むことが多いのは、その人物について誤った情報を生成する可能性があるためだ。ジェネラティブ(生成)AIの研究者たちは、そうした現象を「ハルシネーション(幻覚)」と呼んでいる。

バードはリスキーなトピックを避ける

チャットボットは、インターネットアドレスについて「幻覚」を起こすことがよくある。がん研究の最新動向が論じられているウェブサイトをいくつか提示するよう求めたところ、バードは求めに応じなかった。

チャットGPTは同様のプロンプトに反応し、それらしいウェブサイトを提示する。コリンズ氏によると、グーグルのバードは、間違った情報につながるおそれがあるため、医療、法律、金融に関するアドバイスの提供を避ける傾向にあるという。

(執筆:Cade Metz記者)
(C)2023 The New York Times

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ライフの人気記事