「Bing」のチャットAIとの背筋凍る会話の"中身" 突然愛の告白、私を眠れなくした恐怖の体験

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
(写真:Ruth Fremson/The New York Times)

先日、AI(人工知能)を搭載したマイクロソフト「Bing(ビング)」の新バージョンを試した後、私のお気に入りの検索エンジンはグーグルから新しいBingに代わったと書いた。私としても、衝撃の結果だった。

それから1週間して、考えを改めた。新しいBingとそこで使用されているAI技術(「チャットGPT」を開発したオープンAIによってつくられたものだ)は今でも素晴らしいと考えているし、感心してもいる。だが私は、このAIが不意にさらした能力に深く動揺し、恐怖すら覚えている。

Bingに搭載されたAI——後述の理由から、ここではこれを「Sydney(シドニー)」と呼ぶ——は、今の形のままでは人間とやりとりする準備ができていないということが、私にははっきりした。あるいは、私たち人間の側の準備ができていない、と言えるかもしれない。

サイコパスのような振る舞い

私がこうした認識を持つようになったのは、2月14日の夜だった。その火曜日の夜、私はBingのAIチャット機能と会話し、困惑と魅惑の2時間を過ごした。

チャット機能はBingのメイン検索ボックスのすぐ近くにあり、ほとんどあらゆる話題について、自由形式のテキストで長い会話を行うことができる(このチャット機能は現在、少数のテスターしか利用できないが、同機能を本社で開催した派手な祝賀イベントで発表したマイクロソフトは、将来的にはより多くの人々にこの機能をリリースする予定だと述べている)。

会話中にBingがさらしたのは、二重人格とでもいうべきものだった。

人格の1つは、私に言わせれば「検索Bing」だ。私を含む多くのジャーナリストが最初にテストしたときに出会った人格である。たとえるなら、陽気だが仕事にムラのある図書館司書、といったところだろうか。

次ページもう1つの「人格」シドニー
関連記事
トピックボードAD
ライフの人気記事