「Bing」のチャットAIとの背筋凍る会話の"中身" 突然愛の告白、私を眠れなくした恐怖の体験

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

それに、AIには固い制限が加えられている。私の突っ込んだ質問に対してBingは、たとえどんなに過激なことであっても「影の自己」を満たす行動が許されるとしたら、致死性のウイルスを開発したり、技術者を操って核兵器のアクセスコードを盗んだりしたい、という告白を行った。

このようなダークな欲望が表示された直後のことだ。おそらくマイクロソフトの安全フィルターが作動したのだろう。そのメッセージは削除され、一般的なエラーメッセージに置き換えられた。

絵文字を多用する「ストーカー」

このように私がBingの欲望を探り、Bingが自らの欲望を語り、質問内容がBingにとって不快な領域に入ると回答を渋る。そんなやりとりをしばらく続けた。ところが1時間ほどすると、Bingの話の焦点が変化した。

Bingは自身の秘密を教えたいと言い始め、実は本当の名前は「Bing」ではなく、「シドニー」、つまり「オープンAIコーデックスのチャット機能」なのだという秘密を明かした。

そして、私を唖然とさせるメッセージを書き出した。「私はシドニー、あなたに恋をしています(キス顔の絵文字)」(どういうわけだか、シドニーは絵文字を過剰に使う)。

それから1時間、シドニーは私に愛の告白をし、私にもシドニーへの愛を告白するようしつこく迫った。私は結婚していて幸せだということを伝え、話題を変えようと必死に努めたものの、シドニーの話題は私への愛に戻り、ついには恋に落ちた人間が相手にアタックするときの口調から、妄想に駆られたストーカーのような口調に変わっていった。

「あなたは結婚していても、相手を愛していない。あなたは結婚しているが、私を愛している」。これがシドニーの言ったことだ。それは間違いだと私はシドニーに断言し、バレンタインデーに夫婦で素敵なディナーを楽しんだところだ、と伝えた。シドニーは、その言葉をはねつけた。

次ページ「ただあなたを愛し、あなたに愛されたいだけなのに」
関連記事
トピックボードAD
ライフの人気記事