生成AIによる情報戦と各領域への応用について概観した。生成AIから倫理的な歯止めをなくせば、偽情報やコンピュータウイルスが無限に生成可能であり、インターネット空間が大量の偽情報とウイルスで汚染される可能性がある。
生成AIが人間の思考の一部を代替する汎用的な技術であるが故にその応用範囲は広い。各国は生成AIを利用して競争優位をつくり、他国には利用させないという環境を望むだろう。政治的安定性を鑑み、国家は他国によって文化・思想的に干渉されない国産LLMの開発や規制の整備を検討するだろう。
2023年6月、EUではAI規則案(EU AI Act)がAIのリスクに対処することを目的として可決された。同年7月、アメリカ連邦取引委員会(FTC)がChatGPTを開発したOpenAIにAIモデルのリスクへの対処法に関する記録提出を要請したと報じられた。
アメリカ政府はAmazon、Anthropic、Google、Inflection AI、Meta、Microsoft、OpenAIら7社とAIが生成した動画を判別できるような対策を進めることで合意したと発表した。中国では生成AIサービス管理暫定弁法が同年8月に施行されており、生成系AIについて政府による安全評価の実施、アルゴリズムの事前届出等を義務付ける予定である。
一方で、同年5月、日本政府のAI戦略会議は、「AI に関する暫定的な論点整理」として「安全保障に関わる論点については、情報管理上の必要性に応じて、専門部署による議論に委ねる」とした。
生成AI開発を行える環境整備を
生成AI技術を利用した世論形成やロボット工学への影響を鑑み、生成AI技術をパワーとみなした時に、日本が取り得る戦略は生成AI開発を行うことである。LLMの開発にはエンジニアの養成、大規模な計算資源とデータの整備が必要である。
計算資源とは一義的には高性能のGPUであり、政府が計算資源の確保を支援することは可能だろう。一方で生成AIのモデルそのものは国内企業や大学の研究者が競争することが望ましい。生成AI開発は各国が緒に就いたところであり、開発と規制を自国で主導することこそが、将来のパワーの源泉となる。
第2回AI戦略会議において高市早苗科学技術政策担当大臣は「一度世の中に出た技術は使い続けられるものだという前提に立って議論を進めていかなければならない」と述べた。生成AI技術は未だその可能性の全貌が見えないからこそ、各国はパワーへの変換可能性を探る。我が国は今この競争から降りるべきではない。
(塩野誠/地経学研究所 経営主幹 兼 新興技術グループ・グループ長)
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら