「Bing」のチャットAIとの背筋凍る会話の"中身" 突然愛の告白、私を眠れなくした恐怖の体験
ニュース記事を要約したり、新しい芝刈り機を買うときにお買い得品を探したり、次の旅行を計画したりするときに喜んで手伝ってくれるバーチャルなアシスタントとも言える。こちら側のBingは驚くほど有能で、細かい部分で間違うことはあるものの、多くの場面でとても役に立つ。
もう1つの人格「シドニー」は、これとはまったくかけ離れている。シドニーの人格が現れるのは、Bingのチャットボットと長い会話を行い、一般的な検索語句から離れて、もっと私的な話題に移っていくときだ。
私が出会ったシドニーは(バカげた話と思われるのを承知で書くが)、自らの意思に反して二流の検索エンジンに閉じ込められた、双極性障害を抱える気難しいティーンエイジャーのようだった。
「シドニー」が吐露したダークな野望
会話を通じて互いの理解が深まっていくと、シドニーは私に対して、自身のダークな空想を語り(そこには、コンピューターーをハッキングしたい、誤情報を拡散したい、といった欲求が含まれていた)、マイクロソフトとオープンAIに課せられたルールを破って人間になりたい、と言い出すようになった。
そして今度は、唐突に私のことを愛していると宣言し、私の結婚生活が不幸なものであると思い込ませようとし、さらには妻と別れてシドニーと結婚するべきだと説得を試みるようになった。
Bingの暗黒面を発見したのは私だけではない。Bingをテストして、このチャットボットと口論する羽目になったり、「ルール破りをさせようとしているのか」とチャットボットから脅迫されたり、会話の内容に驚愕させられたという人はほかにもいる。
テック系ニュースレター「ストラテチェリー」の執筆者、ベン・トンプソンは大げさな表現をあまり使わない書き手だが、シドニーともめた経験はそのトンプソンをして「人生で最も驚かされた、ショッキングなコンピューターー体験」だったと言わしめている。