孫にそっくりな声のAI音声合成を使って祖父に電話し、刑務所から出るために急ぎで保釈金が必要だと伝えてお金を騙し取るといった新しいタイプのオレオレ詐欺が米国で多発しているそうです。声がそっくりなことでより説得力を増して、騙されやすくなるといいます。日本の特殊詐欺・振り込め詐欺よりもさらに高度で悪質です。
The Washington Post / Scammers are now using AI to sound like family members. It’s working.
米国連邦取引委員会(FTC)の報告によれば2022年に5,100件以上の電話を使った詐欺が発生し、その被害総額は1,100万ドル以上(およそ15億円)だったとのこと。
恐ろしいことに、特定の人物の声を音声合成するためにはYouTube、ポッドキャスト、コマーシャル、TikTok、Instagram、Facebook の動画などから取った30秒間程度の音声サンプルがあれば十分とのことで、しかもローコストで作れてしまう状況にあります。
技術の進歩によりスピーディーに高品質な音声合成ができるようになった反面、こんな形で技術が利用されてしまうのは非常に残念なことです。
日本では同様のAI音声合成を使った特殊詐欺事件の報道はまだ見かけませんが、今後増えてきても不思議はないと思います。みなさんも電話の声だけでお金を騙し取られないように十分注意していきましょう。
ではまた。