
選挙関連のディープフェイク動画はすでに複数出回っているが、昨年6月には共和党のナンバー2候補とされるフロリダ州知事、ロン・デサンティス氏陣営が作ったフェイク画像が登場。

大統領候補の各陣営や支持者、利害関係者だけでなく、自国に有利となる介入や揺さぶりを狙う外国勢力、さらには再生数を稼ぎたい無関係な個人なども参戦し、各方面が入り乱れたでっち上げ合戦の様相となる可能性も否定できない。

ただ、それが果たして機能するのか。大統領選におけるディープフェイクの影響と、ビッグテック各社の対策に目を向けたい。
民主主義への「脅威」、ディープフェイクが政治的分断の火種に
米大統領選でフェイク情報が飛び交うのは今に始まった話ではなく、8年前、4年前にも話題となった。ただ、生成AIはここ数年で劇的に高度化、簡易化、低コスト化しており、いまや誰もが簡単に、高レベルのディープフェイク動画を作成することが可能だ。フェイク情報やフェイク動画でゆがめられた事実が、広く有権者の投票行動に影響を及ぼす事態となれば、「選挙の正当性が揺らぐ恐れがある」(チャック・シューマー上院院内総務)、「民主主義の礎に対する深刻な脅威になり得る」(アリシア・ソロウ=ニーダーマン ジョージ・ワシントン大学ロースクール准教授)と、当局者や識者は指摘する。
米調査会社ユーラシア・グループは「2024年の世界10大リスク」のトップに、「米国の政治的分断」を挙げたが、ディープフェイクがこれを後押しする可能性すらある。

フェイク情報が存在すると理解していても、視覚的、聴覚的な再現レベルの高さゆえに、ディープフェイクは信頼性や説得力を生む。ネット慣れしていない層を中心に、精巧なフェイク動画・音声を信じる有権者が少なからずいるはずだ。

本来なら、生成AI規制の速やかな導入が期待されるところだが、アレンAI研究所の機械学習リサーチャーであるネイサン・ランバート氏らによれば、大統領選の影響で、逆に規制への取り組みが遅れる可能性があるという。
2023年10月に「AIに関する大統領令」、フェイク防止効果は期待薄
バイデン大統領は23年10月末、AIの安全性確保やプライバシー保護に関する規制を定めた大統領令に署名した。AI開発者に新サービスの安全性評価を義務付けるなど、透明性の向上と新たな基準の導入を求める大掛かりな内容。AI規制でEUより出遅れている米国にとっては大きな一歩だ。ただ、ベストプラクティス(最良の取り組み)に基づく各方面の対応を求めたのがこの大統領令であり、生成AIの悪用を止めるための即効性があるわけではない。生成AIコンテンツを政治キャンペーンで使用することに対する連邦規則は今のところ存在しない。
また、『The Princeton Legal Journal』によれば、誹謗中傷に当たるフェイク情報をホストする第三者のウェブサイトは責任を問われず、そのため、リポストなどの拡散を防ぐ手段もないという。
こうした中、ビッグテック各社は個別に対策に動く方針だ。

ビッグデックはフェイク防止策に個別対応、「無害化は不可能」か
例えば、アルファベット社傘下のグーグルは、自社のAIチャットボットBardやSGE(生成AIによる検索体験)機能において、AIツールを用いたコンテンツのデジタル生成・改変を行った場合、その旨を開示するよう選挙広告主に要求。さらに回答できる選挙関連のクエリの種類を制限する方針という。メタ社は政治キャンペーンにおける新世代型の生成AI広告製品の使用を禁止。さらにフェイスブックやインスタグラムの広告主に対しては、選挙広告の作成・変更にAIツールを使用した場合、その旨を表示することを求める。外国の国営メディアに対しては、ラベリングした上で、米国民をターゲットとした広告をブロック。選挙戦終盤の最終週には新たな政治広告を禁止するなどの措置を明らかにしている。

また、マイクロソフトは候補者の肖像権の保護やコンテンツの認証を含む一連のサービスを提供する方針だ。ただ、OpenAIの言語モデルGPT4を使ったマイクロソフトのCopilot(旧称Bing Chat)について、米ITメディア『Wired』は12月、陰謀論や誤情報、古い情報を提供していると報道。しかもこれは個別のミスではなく、システム上な問題だと指摘する外部のリサーチ結果を伝えた。
これに対し、マイクロソフトはAIチャットボットが「信頼できる」結果を提供できるように努力するとしながらも、ある程度の不備を認め、ユーザーには「出典やウェブリンクのチェックで詳細を確認するなど、最善の方法でCopilotを利用することを勧める」とのコメントを発している。全面的な対処はやはり難しく、同社が目指す「選挙の保全」への道のりはかなり険しそうだ。
一方、選挙関連の誤報の報告ツールを廃止し、選挙保全対策チームを解雇するなど、デマや誤情報への取り組みに消極的であるとの批判を受けているX(旧ツイッター)は、フェイク情報に対抗するための主な手段として、クラウドソーシングによるファクトチェック・スキーム「コミュニティ・ノート」を宣伝している。ただ、この方法には欠陥があり、エラーが発生しやすく、不十分との見方が強いという。

ボイスクローニングのスタートアップInstreamaticも渦中に
ビッグテックだけでなく、悪用対策を準備せざるを得ない新興企業もある。例えば、AIボイスクローニングのスタートアップ、Instreamatic(フロリダ州本社)がその1社だ。同社のソリューションを使えば、候補者はテーマに応じて、高度にターゲット化されたナレーション入りの動画・音声広告を即座に生成することが可能。同社はデモ動画で、オバマ元大統領の音声を再録音なしに複製し、ホームレス対策に関する既存の動画を、大雪被害を受けてインフラ整備の必要性を訴えるという、まったく別のメッセージを持つナレーション動画に作り替えた。
『Venturebeat』の報道では、同社は選挙戦でのフェイク情報に利用されないよう、自社製品に防護壁を組み込んだという。また大前提として、政治広告向けサービスはサインアップすれば誰にでも利用できるものではなく、音声の使用許可を確認することが必要で、仮に政治広告に問題が発生した場合は即座に削除するとした。
政治広告の世界を作り変える意図はなく、あくまでも、すでに存在する退屈な手作業プロセスを自動化するのが自社ビジネスの狙いだと付け加えている。
「AI由来の偽情報」は世界最大のリスク、選挙イヤーの24年が転換点
生成AIが急速に進化してから初めて迎える米大統領選。前出のランバート氏は「人々がAIをどのように不正利用し、その問題の原因がどう分析され、メディアによってどう扱われるか。今回の米大統領選はそれを知るストーリーの決定的要素になる」と指摘している。世界が注視する超重要イベントの米大統領選が、生成AIの発展や規制の方向性を決める上で、重要な節目となる可能性がありそうだ。また、2024年はまれに見る選挙イヤー。米国のほか、インドやロシア、台湾(1月13日に終了)で大統領選あるいは総統選が実施される。国政選挙は50カ国以上で行われ、世界人口の半数以上が投票に行くことになるという。
その結果は民主主義の未来や、人権、安全保障、気候変動対策などの様々な分野に重大な影響をもたらすことになるが、生成AIを使ったフェイク情報がどの程度、人々の決定に絡むのか。
世界経済フォーラム(WEF)は1月10日に、『グローバルリスク報告書2024年版』を発表し、「AIを通じた誤報・フェイク情報」を短期(今後2年)のグローバルリスク・ランキングのトップに据えた。2位の「異常気象」に続いて「社会の二極化」が3位で、以下、「サイバー犯罪とサイバーセキュリティーの低下」「国家間武力紛争」「不平等」。ニセ情報の広がりと社会不安との絡み合いが世界のリスクの中心になるとしている。
文:奥瀬なおみ
編集:岡徳之(Livit)