米国とイスラエルが2月28日にイランに対する攻撃を始めた後、一部のインフルエンサーやコンテンツ制作者が生成AIを利用し、偽の戦争映像を作成し、注目を集めることで利益を得る動きが相次いでいます。専門家は、「これはかつてない規模のAIによる偽情報の波であり、極めて深刻だ」と警鐘を鳴らしています。

代表例としては、イスラエルのテルアビブにミサイルが着弾し、大規模な爆発音が響き渡る様子を紹介した動画があります。このAI生成動画は300件以上の投稿に引用され、SNSのプラットフォームで数万回以上もシェアされました。

英国での調査によると、X(旧Twitter)の利用者の一部は、プラットフォームに内蔵されるAIチャットボットのグロック(Grok)にこの動画の真偽を問い合わせましたが、グロックは繰り返し「この動画は本物だ」と誤った回答をしたとのことです。

また、ドバイの超高層ビルのブルジュ・ハリファが炎上するAI生成動画も拡散しました。この動画は、現地住民や観光客がドローンやミサイル攻撃への不安を強めていた時期に流布し、視聴回数は数千万回に達しました。

オーストラリアのクイーンズランド工科大学(QUT)のデジタルメディア専門家であるティモシー・グラハム氏はこうした動きについて、「問題の深刻さは本当に憂慮すべきものだ。今回の戦争によって、人々はもはやこの現象を無視できなくなった。かつては動画制作に専門知識が必要だったが、今やAIツールを使えばわずか数分で本物と見間違えるような偽動画を作れる。本物と見分けのつかない偽映像を制作するハードルは、今やほとんど存在しない」と指摘しました。(提供/CGTN Japanese)

編集部おすすめ