ドヤ顔「ChatGPT」と言い訳多い「Bard」の決定差 チャットボットでも反応にこれだけの違い
グーグルは新しいチャットボット「Bard(バード)」をリリース、この実験的な技術をアメリカとイギリスの限られた人々と共有している。
バードは、マイクロソフトとそのパートナーであるサンフランシスコの新興企業オープンAIによる同種の技術とライバル関係にある。ただ、グーグルはこの種の技術が示す想定外の行動を制御しようと公開には慎重な姿勢をとっており、その展開はインターネット検索エンジンなど、ほかのサービスとは切り離されたものになっている。
ここでは、バードの特徴を簡単に見ていくことにしよう。
自身の欠点を認めるバード
バードが真っ先に伝えてくるのは、自分は間違いを犯すということだ。ページの上部にはこんなメッセージが掲げられている。「私はバード、クリエイティブで役に立つ、あなたの協力者です。私には限界があり、つねに正しいとは限りませんが、あなたのフィードバックが私の改善に役立ちます」。
オープンAIのChatGPT(チャットGPT)やマイクロソフトのBing(ビング)チャットボットと同様、バードは大規模言語モデル(LLM)、すなわちインターネットから膨大な量のデータを分析して学習する人工知能(AI)技術がベースとなっている。それが意味するのは、チャットボットは間違いを犯し、話をでっち上げる場合があるということだ。
例えば、利用開始にあたってバードが提案してくるいくつかのプロンプト(指示内容)には、「大規模言語モデルがときどき間違いを犯す理由を説明して」といったものが含まれている。