AIを悪用した音声詐欺が世界で増加中!10%が遭遇する音声詐欺から身を守る方法は?

マカフィーが日本を含む世界7ヵ国を対象に実施したAIを悪用したオンライン音声詐欺の現状に関するレポート「The Artificial Imposter」を発表しました。今回はこのニュースをお伝えします。

関連記事
米国でAI音声合成を使った振り込め詐欺が増加中
アリゾナでAI音声合成の声を使った身代金目的誘拐事件が発生

マカフィー / AI(人工知能)を悪用した音声詐欺が世界で増加中

Beware the Artificial Impostor – A McAfee Cybersecurity Artificial Intelligence Report

AI音声詐欺の遭遇率

マカフィーが日本、米国、英国、ドイツ、フランス、インド、オーストラリアの18歳以上の成人を対象に調査を行った結果、10%が自身がAI音声詐欺に遭遇、15%が知人が遭遇したと回答したそうです。また、被害者の77%が金銭被害にあったと回答。予想以上に広がっている印象ですね。
一方、日本での音声詐欺の遭遇率は、現時点では世界7ヵ国で最も低く、世界平均の約3分の1でした。

音声データのオンライン共有頻度

AIを悪用した音声詐欺は、ソーシャルメディアなどで公開されている音声データが材料になることも多いとされています。実際どの程度音声データが共有されているかを示した調査結果も発表されました。

結果、世界の成人の過半数が週に1回以上、さらに全体の10%は週に5回以上、自身の音声データをオンラインで共有していることがわかりました。
一方、日本では、現時点では世界7ヵ国で最も低く、世界平均の半分ほどでした。

日本の場合、まだ声の共有が少ないため、音声詐欺の遭遇率がまだ低いとも言えます。ただ今後増えてもおかしくはありません。油断禁物です。

音声詐欺の対策は?

マカフィーはこのレポートの中で、「AIを悪用した音声クローニングの詐欺から身を守る方法」も解説していますので紹介しておきます。

口頭での「パスワード・合言葉」の確認
家族や信頼できる親しい友人との間でのみ通用する「パスワード・合言葉」を共有し、助けを求められた場合、それを確認することを習慣づける。

発信者への疑念を持つ
知らない発信者からの連絡は、一呼吸置き、電話を切る、相手に直接電話をかけ直すか、情報を確認してから応答する。

クリックやシェアは慎重に
ソーシャルメディアで自分のアイデンティティを共有すればするほど、悪意あるクローニングされるリスクが高まることを理解する。

個人情報保護サービスの管理
ソーシャルメディアで個人を特定できる情報にアクセスできない設定を行ったり、個人情報がダークウェブに流出した場合に通知を受ける設定を行う。

ではまた。