あなたの脳がどんどん"退化"するAIのダメな使い方 脳科学者・茂木健一郎さんが語る"AIの今"
それは、AIに関しても同じことが言えます。AIの研究開発はまだ不十分な点も多く、世界的にさまざまな危険性が議論されています。
例えば、ChatGPTに「核爆弾の作り方を教えてください」といったタブーな質問をする人がいないとも限りません。
「プロンプト・インジェクション(Prompt Injection)」という言葉があります。
インジェクションとは「注射」という意味ですが、プロンプト・インジェクションとは、人間がAIに誤作動を起こさせるような指令入力を意図的に与え、AIに不正な情報を生成させることです。本来であれば本当のことしかアウトプットしないAIでも、まったく関係のないアウトプットを返したり、嘘をつくようになったりするのです。
「表のAI」と「裏のAI」
また、近年AI業界で時々使われる「ワルイージ効果(Waluigi effect)」という言葉があります。
ワルイージ効果とは、一見すれば無害な学習データでトレーニングされたAIシステムが、ちょっとしたインプットをすることで暴走し、ユーザーが求めていたこととは逆のことを発言したり、潜在的に悪性の、もう一つの自己を作り出すAIのことを任天堂のゲーム、『スーパーマリオブラザーズ』のキャラクターをもじってワルイージ効果と呼びます。
冷静に考えてみれば、私たち人間の世界においても、誰もが善人にもなれば、同時に悪人にもなり得るわけです。
つまり、頭のいい人はコインの表も裏も理解することができる。知性にはそういう側面があるのです。
私たちが生きているこの世界には、悪人が存在しています。もっともたちが悪いのが、頭のいい悪人です。
悪人がいるこの世界で幸せに生きていくためには、悪人の行動も理解しておかなければいけません。悪人のことを理解していなかったら、悪人に出会ったときにただやられるだけで終わってしまうからです。
例えば詐欺師の思考や悪意の本質を理解し、具体的な攻撃手段(どのように近づいてくるか)を知ることで初めて防衛策が取れるわけです。
AI研究においても、「表のAI」と「裏のAI」というのは、海外でものすごく重要な論点になっています。善悪というレベルではなくても、何かのきっかけで考えや行動が変わるのはよくあることです。これと同じようなことがAIでも起こることが研究でわかってきました。
無料会員登録はこちら
ログインはこちら