AIは今後「ドラえもん型」を開発すべき納得の根拠 きちんと認識すべき「生成AIの本質」とその怖さ
栗原:海外と比較すると、その傾向は日本において顕著のように思えるのですが、日本人に特有の何かがあったりするのでしょうか。
山本:とくにEUでは、人間が自律的・主体的な決定主体である、またはそうあるべきだという「人間中心主義」が重視されているように思います。
ヨーロッパでは、ルネサンス期にアリストテレス的な人間理性が再評価され、「神に従う世界」から、自らの理性をもって人間が決める世界へと変わっていきます。社会システムが神ないし教会中心から人間中心へと変化していくわけですね。
さらにプロテスタントの台頭により、「教会」から「個人」へ、という流れも出てきて、宗教改革や宗教戦争を経て「個人」が決めることが重視される。こうした、自らの自由意思による自己決定という考えが、近代立憲主義の基礎になっていきます。
EUには、こうした精神的な革命の歴史がある。だから、AIの利活用が広がって、個人の自律的で主体的な意思決定が浸食され、人間が自ら考えなくなること、人間が再び非中心的な存在になることへの強い抵抗感があるのではないかと思います。
現在、世界のAI倫理原則などで強調されている「人間中心」は、こうした歴史的文脈を無視できないのではないか。日本のAI原則でも「人間中心」が説かれるのですが、本質的な理解が足りていないように感じます。
アライメントの施されていないAIが誰でもつくれる怖さ
山本:生成AIによってアテンション・エコノミーを悪化させる可能性についてもお聞きできればと思います。例えば「フェイクニュース」や「エコーチェンバー」。このあたりと生成AIはどう関係してくるでしょうか。
栗原:技術的な観点で言うと、いま注目されている生成AIはしっかり人間が調整(アライメント)していて、ある程度“保証付き”なので、そうそう変なことは起きないですし、技術も進んで間違いも減っていくでしょうから問題はありません。
では何が問題かというと、生成AIはオープンな技術を使っているので、小さな規模のものであれば誰でもつくれてしまうということです。
例えば「ハッキングするための文章をつくるためだけ」の生成AIや、「誰かを攻撃するためだけ」や「個人情報を抜き取るためだけ」のAIだって、つくろうと思えばつくれるわけです。もちろんそういうものは、アライメントはまず施されてはいないのです。
そうすると何が起きるかというと、社会を混乱に陥れようとする人や、プロパガンダをつくろうという人たちも出てくるでしょう。それにフェイクニュースですよね。
今でもBotが使われていますが、生成AIを使ってより“秀逸”なBotをつくり、意図的にフェイクニュースをつくって垂れ流すということが起こりえます。そうしてネット上に散乱してくる情報をまたAIが学習することで、負のループが完成してしまうのです。