「ChatGPT」に浮かれる人が知らない恐ろしい未来 新井紀子氏「非常に危険なものが生み出された」
一方で、こうした生成AIの回答には誤りも多く、社会にもたらす悪影響への懸念がくすぶる。このテクノロジーとどう向き合うべきなのか。国立情報学研究所 社会共有知研究センター長で、2011年にスタートした人工知能プロジェクト「ロボットは東大に入れるか」のプロジェクトディレクタを務めた新井紀子氏に聞いた。
――ChatGPTやBingchatが続々と公開され、自然な受け答えを評価される一方、誤りの多さについて懸念も上がっています。
Transformerの登場以降、書き手が人か機械かの見分けがつかないほど、AIの生成する文章がとても自然になっていると感じています。
プロジェクトで東大を目指したAI「東ロボくん」は使える資源(パラメータ)が十分になく、知っていることを時代順に羅列することが精いっぱい(ストーリーを作ることができず、一文一文事実を述べることしかできない)でした。
これがデータ量を数千倍に増やすと、突然精度が上がるなど、今までの蓄積では説明がつきにくい現象が起こっています。ここまでいくと、人間では誤りがなぜ、どのようにして起こったのか把握することが難しく、修正も極めて困難ではないかと。
AIは100%正しくなるのか?
――AIがいくら賢くなっても、100%の正確性は実現しないのでしょうか。
もちろんそうです。AIを工学分野だと思っている方も多いでしょうが、これができたきっかけは数学基礎論という分野なんです。
数学の枠組みで動く限り、AIは「言語」を「記号」として認識し計算処理することはできても、その「意味が正しい」と理解することができない。よって、AIが100%正しくなるというのは、科学的に無茶な命題です。
――実際にChatGPTを利用すると、ちゃんと意味を理解しているように見えてしまう部分もあります。
おそらく心理学的な効果ではないでしょうか。ChatGPTをすごいと感じてしまう現象は、受け答えの正しさよりも、自信満々かつスムーズにウソをつく“サイコパス”っぽさに起因していると思います。そのため、知的レベルが高い人でも「こっちのほうが正しいんじゃないか」と、信念や心理を揺さぶられる。