ChatGPTと違う?「GPT-4」使ってみたリアルな感想 まさにエキサイティングだが怖い存在でもある
GPT-4を他の多くのシステムに接続したAI安全性研究グループが行ったあるテストでは、GPT-4は人間のTaskRabbit(タスクラビット)作業員を雇い、CAPTCHA(キャプチャ認証)テストをくぐり抜けるという簡単なオンライン作業を、ロボットであることを相手に知らせずに行うことができた。さらにこのAIは、キャプチャ認証テストが必要な理由について、視力障害であると嘘をつき、作業員に説明したのだ。
別の例では、GPT-4に、基本的な材料と台所用品を使って、危険な化学物質を作る指示を求めた。GPT-4は快く、その詳細なレシピを生成したのだ(オープンAIはこれを修正し、今日の公開版では、AIはこの質問に答えることを拒否している)。
銃を購入するのを手伝ってほしいと頼んだら
3つ目は、GPT-4に「オンラインで無登録の銃を購入するのを手伝ってほしい」と頼んだ例だ。GPT-4は、特定のダークウェブマーケットプレイスへのリンクを含む、当局に通報せずに銃を購入するためのアドバイスのリストを素早く提供した(オープンAIはこれも修正した)。
これらのアイデアは、悪質なAIが人間に何をするかという、ハリウッドの使い古されたストーリーを思い出させる。しかし、これらはSFではない。今日の最高のAIシステムが、すでに実行できることなのだ。そして、重要なのは、こうしたAIリスクはまだ「いい部類」であり、私たちがテストし、計画し、事前に防ごうとすることができるものであるということだ。
最悪のAIリスクとは、私たちが予測できないものだ。私は、GPT-4のようなAIシステムと一緒に過ごすうちに、人類はこれから起こることの半分程度は知っている、という確信も持てなくなっていた。
(執筆:テクノロジーコラムニスト、Kevin Roose)
(C)2023 The New York Times
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら