誰もが誰かに成りすませる。ChatGPT開発元CEOがAIによる詐欺被害の拡大に警鐘
Photo by:iStock

誰もが誰かに成りすませる。ChatGPT開発元CEOがAIに...の画像はこちら >>

 声で本人確認する電話、顔認証でログインするアプリ。それらがもはや“信用できないもの”になりつつある。

 AIの進化によって、他人の声や顔をそっくりそのままコピーできる時代がやってきたのだ。

 ChatGPTを開発した企業として知られるOpenAIのCEO、サム・アルトマン氏は、「誰でも他人になりすませるようになる」として、AIが引き起こす新たな「詐欺被害の拡大」に強い懸念を示している。

 しかも、それは遠い未来の話ではなく、すでに現実になり始めているという。

音声認証はすでに突破されている

 ChatGPTを開発した企業として知られるOpenAIのCEO、サム・アルトマン氏は、2025年7月22日、アメリカ・ワシントンD.C.で開催された「大手銀行向け資本規制枠組み会議[https://qz.com/openai-ceo-sam-altman-ai-banking-fraud-crisis]」に出席した。

 連邦準備制度理事会(FRB)の副議長ミシェル・ボウマン氏との対談の中で、AIによって引き起こされる金融詐欺のリスクに強い不安を表明した。

非常に心配しているのは、一部の金融機関がいまだに音声による本人確認を採用しており、それだけで多額の送金が可能になるということです。本人確認のフレーズを言うだけで処理が完了してしまうのです(アルトマン氏)

 この発言は、音声認証だけに頼ったセキュリティが、もはやAIにとって「突破可能な仕組み」であることを示している。

 実際、最近のAIは人の声を数秒間聞かせるだけで、ほぼ完璧に模倣することができる。そのため、本人が話していないにもかかわらず、「本人の声に聞こえる音声」で認証が通ってしまうリスクが生まれている。

[画像を見る]

映像も偽造可能な時代へ

 アルトマン氏は続けて、「現在は音声認証が主ですが、近い将来、ビデオ通話やFaceTime(フェイスタイム)によるなりすましも現実と区別がつかないほどリアルになる」と述べた。

 つまり、電話や音声だけでなく、映像に映る“その人の顔”すらもAIが再現し、リアルタイムで通話が可能になるという。

 これが実現すれば、友人や上司、政府関係者などになりすまして、相手を信用させたうえで情報を聞き出す、あるいは金銭をだまし取るといった手口がさらに容易になる。

 しかも、見た目にも声にも違和感がないため、被害者は偽物と気づくことすらできないかもしれない。

[画像を見る]

実際に起きているAI詐欺の被害例

 こうした危険性はすでに現実のものとなっている。

 近年、詐欺師が被害者の声をAIで模倣し、家族が誘拐されたように偽装して身代金を要求したり、企業の社員になりすまして資金を引き出す事件[https://blog.lastpass.com/posts/attempted-audio-deepfake-call-targets-lastpass-employee]が報告されている。

 アメリカ連邦捜査局(FBI)は2023年、「AIを利用したフィッシング詐欺、ソーシャルエンジニアリング(人の心理をついて情報を盗む手法)、音声・映像のクローン詐欺の脅威が急速に増している」と公式に警告を出した。

 さらに、今月には元トランプ政権関係者が驚くべき事例を明らかにした。

 AIを使ってアメリカの国務長官、マルコ・ルビオ氏になりすました偽の人物が、3人の外国の外相、1人のアメリカ州知事、そして1人の連邦議会議員に接触し、情報やアカウントへのアクセスを試みたことを、ワシントン誌[https://www.washingtonpost.com/national-security/2025/07/08/marco-rubio-ai-imposter-signal/]が報じた。

 これは、AIが外交の現場にまで悪用されるようになったことを示す深刻な事例である。

[画像を見る]

OpenAIは責任を否定しつつも懸念を共有

 このような詐欺が広がる中で、アルトマン氏は「我々はなりすましツールの開発に取り組んでいるわけではない」と明言している。

 しかし一方で、彼が支援する生体認証プロジェクト「The Orb[https://time.com/7288387/sam-altman-orb-tools-for-humanity/]」にはプライバシーへの懸念が寄せられており、また同社が開発中の映像生成AI「Sora」も、理論上は人物の外見や表情、動きをリアルに再現できるため、なりすまし詐欺に悪用されるリスクを孕んでいる。

 アルトマン氏は、「私たちがその技術を公開していないからといって、他の誰かが作っていないという保証はない」と指摘し、「悪意ある人物が必ず公開する。しかも、それはそれほど難しいことではない。非常に近い未来に実現してしまう」と警告を強めた。

これからの本人確認はどうあるべきか

 AI技術は急速に進歩しており、今や一般人の声や顔ですら容易に再現できてしまう。これまで信頼されてきた音声認証や顔認証は、もはや安全とは言えず、認証の仕組みそのものを根本から見直す必要がある。

 銀行や企業、行政機関はもちろん、私たち一人ひとりも「声や顔はもう本人確認にならないかもしれない」という意識を持ち、日常のセキュリティを見直す時期が来ている。

References: Sam Altman Warns That AI Is About to Cause a Massive "Fraud Crisis" in Which Anyone Can Perfectly Imitate Anyone Else[https://futurism.com/sam-altman-ai-fraud-crisis-imitate] / Sam Altman is terrified about a coming AI fraud crisis[https://qz.com/openai-ceo-sam-altman-ai-banking-fraud-crisis]

本記事は、海外の記事を基に、日本の読者向けに独自の視点で情報を再整理・編集しています。

編集部おすすめ