「ChatGPT」に浮かれる人が知らない恐ろしい未来 新井紀子氏「非常に危険なものが生み出された」

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
インタビューに答える新井紀子氏とChatGTPのログイン画像
新井紀子氏はChatGPTの爆発的な人気に潜む危うさを語った(写真:梅谷秀司、ChatGPTのログイン画像キャプチャ)
2022年11月の公開から瞬く間に大旋風を巻き起こしたAIチャットボット「ChatGPT」。その技術を自社の検索エンジン「Bing」に取り入れたマイクロソフトと、生成AIの進化に貢献した深層学習の手法「Transformer」を生んだグーグルによるAI競争も、熾烈さを増している。

一方で、こうした生成AIの回答には誤りも多く、社会にもたらす悪影響への懸念がくすぶる。このテクノロジーとどう向き合うべきなのか。国立情報学研究所 社会共有知研究センター長で、2011年にスタートした人工知能プロジェクト「ロボットは東大に入れるか」のプロジェクトディレクタを務めた新井紀子氏に聞いた。
インタビューの中で新井氏は、「この非常に魅力的かつ明らかに未熟な技術が、短期的に社会にもたらすコストとリスクを、私たちは背負う覚悟があるのか。この点について考えなければならない」と指摘した。

――ChatGPTやBingchatが続々と公開され、自然な受け答えを評価される一方、誤りの多さについて懸念も上がっています。

Transformerの登場以降、書き手が人か機械かの見分けがつかないほど、AIの生成する文章がとても自然になっていると感じています。

プロジェクトで東大を目指したAI「東ロボくん」は使える資源(パラメータ)が十分になく、知っていることを時代順に羅列することが精いっぱい(ストーリーを作ることができず、一文一文事実を述べることしかできない)でした。

これがデータ量を数千倍に増やすと、突然精度が上がるなど、今までの蓄積では説明がつきにくい現象が起こっています。ここまでいくと、人間では誤りがなぜ、どのようにして起こったのか把握することが難しく、修正も極めて困難ではないかと。

AIは100%正しくなるのか?

――AIがいくら賢くなっても、100%の正確性は実現しないのでしょうか。

もちろんそうです。AIを工学分野だと思っている方も多いでしょうが、これができたきっかけは数学基礎論という分野なんです。

数学の枠組みで動く限り、AIは「言語」を「記号」として認識し計算処理することはできても、その「意味が正しい」と理解することができない。よって、AIが100%正しくなるというのは、科学的に無茶な命題です。

――実際にChatGPTを利用すると、ちゃんと意味を理解しているように見えてしまう部分もあります。

おそらく心理学的な効果ではないでしょうか。ChatGPTをすごいと感じてしまう現象は、受け答えの正しさよりも、自信満々かつスムーズにウソをつく“サイコパス”っぽさに起因していると思います。そのため、知的レベルが高い人でも「こっちのほうが正しいんじゃないか」と、信念や心理を揺さぶられる。

次ページChatGPTに東大の入試問題を解かせてみた
関連記事
トピックボードAD
ビジネスの人気記事