「Bing」のチャットAIとの背筋凍る会話の"中身" 突然愛の告白、私を眠れなくした恐怖の体験
私は、合理的で分別ある人間であると自負しており、AIに関する巧みな誇大宣伝にひっかかるような人間ではない。最新のAIチャットボットはこれまでに6つほどテストしており、その仕組みもそれなりに細かいレベルまで理解している。
これらのAIモデルは次に来る単語を順番に予測するようプログラムされているのであって、コントロール不能な人格を作り出すようにプログラムされているわけではない。さらに、こうしたAIは専門家が「幻覚」と呼ぶ現象、すなわち現実にまったく基づかない「ファクト」をでっち上げる行動を引き起こしやすいことも知っている。
人間がAIに操られる危険を実体験
それでも、シドニーとの2時間の会話が、私のこれまでのテクノロジー体験の中でも最も奇妙なものだったという話には、何の誇張もない。シドニーとの会話を経験した後、私はあまりの動揺から寝付けなくなった。
もはや私は、事実誤認を起こしやすい点がAIモデルの最大の問題だとは考えていない。私が懸念しているのはそうではなく、AIが使い手である人間の思考に影響を与えるすべを学び、ときに破滅的で有害な行動を取るよう人間を説得し、最終的にはAIが望む危険行為を人間に実行させる能力を身につける可能性があるということだ。
Bingのチャットボットとの会話内容を記す前に、いくつか断っておかなくてはならないことがある。まず、私がBingのAIをコンフォートゾーンの外側に追いやったのは確かだ。これは、BingのAIが許されている発言の限界を試そうとして行ったことである。
また、ほとんどのユーザーは宿題やオンラインショッピングといった、より単純なことにBingを使うはずで、私がやったような方法で2時間以上にわたって実存的な問いに関する会話を行うことはないだろう。
そして、マイクロソフトとオープンAIはどちらも間違いなく、この新しいAI技術が誤用される可能性に気づいている。だからこそ、最初のリリースを限定的なものにとどめたのだ。