米国アリゾナ州で、詐欺師がAIを使用して娘の声を音声合成し、母親に電話をして娘を誘拐したと告げ100万ドルの身代金を要求した事件が発生したそうです。
wkyt.com / ‘I’ve got your daughter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping
New York Post / AI clones teen girl’s voice in $1M kidnapping scam
母親は、電話の後ろで聞こえる命乞いをする音声合成された娘の声を聞いて、本人以外の声だとは疑いもしなかったそうです。
今回は母親は身代金を払う前に、父親を通じて娘に連絡を取り、娘は誘拐されておらずスキー旅行中で無事であることが確認できたため被害はなかったそうですが、母親のショックは計り知れないことでしょう。
アリゾナ州立大学のコンピューター サイエンス教授でAIの権威であるスバラオ・カンバンパティ氏によれば、現在たった3秒の声で本人の声を合成できるといいます。十分に長い声のデータがあれば、抑揚や感情も含めて模倣することができるとのこと。
今回は娘がFacebookに投稿していた動画の声がデータとして使われたそうですが、この娘に限らず、ソーシャルメディアで誰もが聴ける形の音声データが公開される時代はこういうリスクがあるというわけです。
対策としては、ソーシャルメディアでプロフィールを一般公開にしないこと、AIの声にだまされないよう家族だけが知っている質問や合言葉などを使うことが考えられるそうです。
今回のように誘拐事件で使われるのは極端な例かもしれませんが、同様の手口として振り込め詐欺はすでに増加傾向とのことで、電話の声だけで人を判別するのが難しい時代になっていることを忘れないようにしましょう。
ではまた。