AIは今後「ドラえもん型」を開発すべき納得の根拠 きちんと認識すべき「生成AIの本質」とその怖さ
山本:生成AIを使って情報の“津波”を起こせるということですね。生成AIによって、人間がつくったかのようなプロパガンダやフェイクニュースがつくれる。またそれを一気に情報空間に送り込める。その情報汚染は、次第に善意の生成AIにも影響を与え、われわれのコミュニケーションをミスリードしていく。そうして情報の“津波”を起こし、情報空間を大混乱に陥れることができるということですよね。
栗原:そうなるともう、民主主義は見事に壊れてしまいます。
山本:そうですね。人間によるアライメントの部分でも、「透明性」や「説明責任」が乏しいと、怖い面が出てきます。どういう目的で調整したかがわからないと、「きれいな回答に見えるが、実は特定の価値観がかなり反映された回答になっている」ということを認知できない。
栗原:そうですね。おっしゃるようにそこは、データの透明性やしっかりしたアライメントなど、確実に起きたことをトレースできるようにしておくといったガイドラインはあっていいのではないでしょうか。
道具タイプのAIはフィルターバブルを助長する
山本:今後、個々のユーザーが生成AIをチューニングしていく方向性もあると思いますが、その場合、生成AIがフィルターバブルを助長するようにもなるでしょうか。
栗原:AIが現在の“道具”のタイプである限り助長することになる可能性が高いと思います。生成AIが個人適応すれば、ユーザーが「自分が好きな情報だけをレコメンデーションしてもらう」ようAIに問いかければ当然好きな情報しか集まらず、フィルターバブル度は高まります。結局は人間が「だらけて」しまうことになりかねません。
先日『ドラえもん』を見ていて面白いストーリーがありました。
そのお話では、言うことを聞いてくれないドラえもんに不満たらたらで「なんとかして」と言うのび太に対して、ドラえもんが、「よし! 最新型の人工知能を出す」と言って今風のAIロボットを出しました。
何でも言うことを聞いてくれるので、のび太が「ドラえもんなんかより、こっちのほうがいいや」とか言うとドラえもんはどこかに行ってしまいます。それで何が起きるかというと、のび太はだらけてしまって、最後には定番のしっぺ返しを食らうわけです。
今の人工知能は「道具」、つまり人が命じるままに動くものです。そういう意味で、もしも個人適応が実装されたとしたら、フィルターバブルがどんどん進みます。それはさすがにまずいので、やはり必要なのは、上記のように、のび太の言うことをたまに聞かないこともある「ドラえもん型」なのだと思います。