「生成AI」は国際政治におけるパワーとなるのか 偽情報による情報戦にとどまらない応用可能性

✎ 1〜 ✎ 57 ✎ 58 ✎ 59 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
3. 認知領域を含む情報戦と生成AI

ChatGPTはその構築過程で入力データの選別と人間による強化学習フィードバックにより、モデルに何らかの思想的な偏りをつくることが可能である。つまり現状の非倫理的な内容を排除するための過程を、意図した思想的な偏りを内在させることに利用するのである。

例えば権威主義国家のLLMであれば、思想的にその体制に従ったモデルになるだろう。また、人間に近しい対話ができるが故に、対話の中で人間に偽情報を信じさせることに利用できよう。

すでに偽情報による情報戦が起きている

この特性は国家が自国に有利な情報を浸透させる認知戦への応用が想定される。2023年4月、中国人民解放軍は機関紙にChatGPTについてAIの軍事利用を考察する論考を掲載した。その中でChatGPTは世論の分析、偽情報による世論の混乱、対象国の人々の操作ができるとしている。

ChatGPTのような生成AIは、認知領域を含む情報戦における偽情報(Disinformation)の生成に利用されることが想定され、今後の国家間の情報戦に影響を与える可能性がある。

過去に組織的に偽情報が流布された例としてロシアのIRA(Internet Research Agency)が挙げられる。IRAはロシアの民間軍事会社ワグネルを率いるエフゲニー・プリゴジンが所有していた企業である。

IRAは2016年のアメリカ大統領選にソーシャルメディアを通じて組織的に干渉を行った。IRAはフェイスブックにおいて1億2600万人にアクセスし、大統領選挙候補者だったヒラリー・クリントンの偽発言等、多岐にわたる偽情報を流布した。

次ページAIは24時間休まず偽情報を生成できる
関連記事
トピックボードAD
政治・経済の人気記事