ドヤ顔「ChatGPT」と言い訳多い「Bard」の決定差 チャットボットでも反応にこれだけの違い

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
グーグルの新しいチャットボット「Bard(バード)」(写真:Google via The New York Times)

グーグルは新しいチャットボット「Bard(バード)」をリリース、この実験的な技術をアメリカとイギリスの限られた人々と共有している。

バードは、マイクロソフトとそのパートナーであるサンフランシスコの新興企業オープンAIによる同種の技術とライバル関係にある。ただ、グーグルはこの種の技術が示す想定外の行動を制御しようと公開には慎重な姿勢をとっており、その展開はインターネット検索エンジンなど、ほかのサービスとは切り離されたものになっている。

ここでは、バードの特徴を簡単に見ていくことにしよう。

自身の欠点を認めるバード

バードが真っ先に伝えてくるのは、自分は間違いを犯すということだ。ページの上部にはこんなメッセージが掲げられている。「私はバード、クリエイティブで役に立つ、あなたの協力者です。私には限界があり、つねに正しいとは限りませんが、あなたのフィードバックが私の改善に役立ちます」。

オープンAIのChatGPT(チャットGPT)やマイクロソフトのBing(ビング)チャットボットと同様、バードは大規模言語モデル(LLM)、すなわちインターネットから膨大な量のデータを分析して学習する人工知能(AI)技術がベースとなっている。それが意味するのは、チャットボットは間違いを犯し、話をでっち上げる場合があるということだ。

例えば、利用開始にあたってバードが提案してくるいくつかのプロンプト(指示内容)には、「大規模言語モデルがときどき間違いを犯す理由を説明して」といったものが含まれている。

次ページバードは実験的なシステム
関連記事
トピックボードAD
ライフの人気記事