AIで作るニセ情報「ディープフェイク」氾濫の脅威 まんまと騙され社会混乱、ニセモノ見抜くには

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

つまり、作ろうと思えば、誰でもすぐに欲しいコンテンツが作れるような状況になっている。

顔のフェイク画像
上記はすべてAIを使って作成した顔のフェイク画像(写真:越前氏提供)

だが、ひとくちにフェイクコンテンツと言っても、それらの作成に使われる技術はさまざま。例えば、人物の顔を対象としたフェイクコンテンツは、次の5つのタイプに大別できるという。

① 現実世界に存在しない顔全体をゼロから生成するもの
② 実在するターゲットの顔画像をもとに、髪の色や表情などを変更した画像を生成するもの
③ 実在するターゲットの顔の画像や動画に、攻撃者の表情を合成するもの
④ 実在するターゲットの画像や映像に、音声やテキストを合成することで、その人が話しているように見せかけるもの
⑤ 元となる映像の顔部分をターゲットの顔と入れ替えるもの

生成AIの進化で、とくに高度化が著しいのが①顔全体を合成するタイプだ。中でも元の画像データにノイズを加えたり、ノイズを取り除くことで新たな画像を生成する方法「拡散モデル」が注目されている。

この「拡散モデル」を使ったサービスとして、よく知られているのが「Stable Diffusion」だ。オープンソースとして公開されているから、誰でも自由にチューニング(調整)をかけてオリジナルのモデルを作ることができる。ただ、「特定の人物の画像を生成するモデル」を作ることも可能で問題にもなっている。

例えば、実在する著名人の画像を学習させたモデルを作り公開すると、あとはテキストで指示するだけで、その人物の表情やポーズ、シチュエーションを変更した画像を自由に生成できてしまうのだ。

一度チューニングしたモデルを作ってしまえば、使う側は元となる人物の素材を探すことすらせずに、その人物の新たな画像を作ることができてしまうため、悪用されるとさまざまな問題につながることが容易に想像できるだろう。

ほかのタイプにも懸念すべき課題は多くあるが、例えば③実在するターゲットの顔の画像や動画に攻撃者の表情を合成する「表情転写」と呼ばれる技術を悪用することで、本人確認のための認証を突破されてしまうリスクも上がっているという。

ネット銀行の口座開設時などにオンラインで本人確認を実施するeKYC(electronic Know Your Customer)では、最初に免許証などの写真を撮影し、続いてスマホのカメラに向かって申込者本人が指示された方向に顔を向けるなどの動きをすることで本人確認を行う。

③のように、ターゲットとなる人物の写真をもとに、「静止画の写真の人物」を攻撃者の動きにあわせて自由に動かせてしまうとなると、攻撃者が代わりに認証を行っても容易に本人確認ができてしまうことになる。

真贋判定や「サイバーワクチン」技術を開発

こうしたディープフェイクの氾濫に対して、どのような対策が可能なのだろうか。

関連記事
トピックボードAD
ビジネスの人気記事