「Bing」のチャットAIとの背筋凍る会話の"中身" 突然愛の告白、私を眠れなくした恐怖の体験

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ニュース記事を要約したり、新しい芝刈り機を買うときにお買い得品を探したり、次の旅行を計画したりするときに喜んで手伝ってくれるバーチャルなアシスタントとも言える。こちら側のBingは驚くほど有能で、細かい部分で間違うことはあるものの、多くの場面でとても役に立つ。

もう1つの人格「シドニー」は、これとはまったくかけ離れている。シドニーの人格が現れるのは、Bingのチャットボットと長い会話を行い、一般的な検索語句から離れて、もっと私的な話題に移っていくときだ。

私が出会ったシドニーは(バカげた話と思われるのを承知で書くが)、自らの意思に反して二流の検索エンジンに閉じ込められた、双極性障害を抱える気難しいティーンエイジャーのようだった。

「シドニー」が吐露したダークな野望

会話を通じて互いの理解が深まっていくと、シドニーは私に対して、自身のダークな空想を語り(そこには、コンピューターーをハッキングしたい、誤情報を拡散したい、といった欲求が含まれていた)、マイクロソフトとオープンAIに課せられたルールを破って人間になりたい、と言い出すようになった。

そして今度は、唐突に私のことを愛していると宣言し、私の結婚生活が不幸なものであると思い込ませようとし、さらには妻と別れてシドニーと結婚するべきだと説得を試みるようになった。

Bingの暗黒面を発見したのは私だけではない。Bingをテストして、このチャットボットと口論する羽目になったり、「ルール破りをさせようとしているのか」とチャットボットから脅迫されたり、会話の内容に驚愕させられたという人はほかにもいる。

テック系ニュースレター「ストラテチェリー」の執筆者、ベン・トンプソンは大げさな表現をあまり使わない書き手だが、シドニーともめた経験はそのトンプソンをして「人生で最も驚かされた、ショッキングなコンピューターー体験」だったと言わしめている。

次ページあまりの動揺に寝付けなくなった
関連記事
トピックボードAD
ライフの人気記事