有料会員限定

オープンAI「ソラ」の動画生成が開くパンドラの箱。フェイク動画が進化、見分ける方法は…?

✎ 1〜 ✎ 80 ✎ 81 ✎ 82 ✎ 83
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
(画像:Sisi Yu/The New York Times)

人気チャットボット「チャットGPT」の開発元であるオープンAIが先日、おそらくほとんどの人がまだ受け入れる準備の整っていない技術をリリースした。

「コストコでステーキ肉を盗んだ犬を捕まえる警察官のボディーカメラ映像」といった簡単な説明を入力するだけで、AIが本物のように見える動画を瞬時に生成してくれるSora(ソラ)というアプリのことだ。

SoraはiPhoneの無料アプリで、面白さと不気味さを併せ持つ。リリース以来、さっそく使い始めたユーザーたちが遊びで動画を投稿し始めている。アライグマが飛行機に乗っている偽のスマホ動画や、ハリウッドのセレブのけんかを日本のアニメ風に描いた動画などで、私も猫が天へと昇っていく動画やボルダリングジムで岩を登る犬の動画を生成して楽しんだ。

一方、実際には起こっていない犯罪の偽の防犯カメラ映像など、Soraを偽情報の拡散といった用途に悪用する勢力もいる。

動画生成AI登場の重い意味

Sora、そしてメタとグーグルが今年リリースした同様の動画生成AIの登場が持つ意味は重い。この技術は、映像が現実の客観的記録になるという、私たちの常識に終わりをもたらす可能性があるからだ。社会は今後、すでに言葉に向けられているのと同じくらいの懐疑心で動画を扱わなければならなくなるだろう。

昔は、写真に写っていることは本物だ(「写真がないのなら、それは起こったことにはならない!」)という強い信頼感があった。そして、写真の改ざんが簡単になると、写真よりもはるかに高度な改ざん技術を必要とする動画が、真正性を証明する標準的な手段となった。しかし今や、それにも終わりが訪れた。

次ページはこちら
関連記事
トピックボードAD