AIで作るニセ情報「ディープフェイク」氾濫の脅威 まんまと騙され社会混乱、ニセモノ見抜くには
このほかにも、金融機関がeKYCなどに対するなりすまし検知に利用したり、弁護士事務所などが誤った証拠の使用を避けるための真正性確認に使ったり、報道機関が誤報道を避けるために報道前に真贋判定を行ったりと、さまざまなユースケースが期待されている。
ユーザーができる防衛策は「すぐに反応しない」
AIによって作られたフェイクコンテンツが溢れる時代において、われわれ一般ユーザーがだまされないためにはどのような心構えが必要なのだろうか。
「見た目や音声などでは区別のつかないレベルになっている。とくにソーシャルメディアに掲載される画像はサイズが縮小されるので、見分けることが難しいケースが多い。まず重要になるのは、反射的にリアクションするのを控えること」(越前氏、以下同)
拡散したくなるようなコンテンツを見つけた場合も、ひと呼吸おいてほかの情報にあたったり、コンテンツに対するコメントを見たりすることで、その情報が事実ではないことに気づけるケースもある。従来の詐欺対策などと変わらない基本的な方法ではあるが、ディープフェイク対策においても重要な姿勢となる。
もう1つ念頭に置いておきたいのが、「自身がディープフェイク的なコンテンツを作ってしまう」可能性だ。誰もが簡単にAIで画像や動画を作れるようになったということは、自身が意図せずとも問題のあるコンテンツを生成してしまうことが起こりうる。また予期せぬトラブルを防ぐために意識したいのが、生成AIの学習データの健全性だ。
「例えば、実在の俳優に似た画像を生成して公開すればトラブルにつながる可能性がある。とくに業務などで画像生成や動画生成のサービスを利用する際は、権利上の問題がないデータのみから学習を行っているモデルを選ぶなど、学習元まで意識したうえで利用する必要がある」
個人的な趣味で作ってSNSに投稿した画像であっても、その内容が不適切であれば炎上などの大きなトラブルに発展する可能性がある。
「安易な気持ちで不適切なコンテンツの生成や公開を行わないために、子どもや若者に対するリテラシー教育を行っていくことも不可欠になる。そのコンテンツを作ることで世の中にどんな影響がおよぶか、その画像は本当に世界中に公開する必要があるのかを考える力をつける必要がある」
また、SNSなどで拡散されるフェイクコンテンツについては、プラットフォーム側の対策も不可欠だと越前氏は言う。
「プラットフォーマーは技術的な手段を持っていることが強み。例えば疑わしいコンテンツを一時的にフィルタリングして、その後に目視で人間が確認するなど、技術を活用して効率を上げながら対応していくことも可能になりつつある。対策がされるとすぐに抜け道が生まれるため、いたちごっこではあるが、プラットフォーム側が対策をする効果は大きい」
ディープフェイクの拡散やそれにともなう問題は、1つの方法だけで解決するものではない。だが、ディープフェイクの氾濫は、偽情報によって世の中を混乱に陥れるインフォデミックにもつながる重大な問題だ。
だからこそ真贋判定やサイバーワクチンなどの技術的な対策に加え、コンテンツに向き合うユーザーの姿勢、そしてプラットフォーマーによる対策など、さまざまな方面からのアプローチが不可欠になる。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら