ついにAIを使った詐欺事件が!身代金を要求された話

アメリカのアリゾナ州で、音声合成技術を悪用して、子供の誘拐未遂事件が起きました。詐欺犯は、ジェニファー・デステファノさんに、彼女の娘を誘拐したと声をかけ、1億3000万円を要求しました。彼女は、もう一人の娘の付き添いでダンススタジオにいたため、デステファノさんの夫や警察にすぐに助けを求めました。幸い、娘は家にいて無事であり、身代金要求は詐欺だったことがわかりました。AIを利用した音声合成技術を使い、本人そっくりに作り上げたクローン音声を使用した詐欺事件がアメリカでは日常的に起きているため、このような新しい詐欺から身を守るためには、注意することが必要です。

FBI特別捜査官補のダン・メイヨー氏によると、音声合成AIを利用した詐欺師はSNSで標的を探していることが多いです。メイヨー氏は、自分のプロフィールを非公開にすること、個人情報を明かさないこと、そして慌てずに冷静に質問することが大切だと助言しています。詐欺師は、口座への送金や暗号通貨の送付、ギフトカードでの支払いなどで身代金を要求してくるため、用心する必要があります。また、不審な電話や家族に相談できないような状況にも注意が必要です。AI音声合成を悪用した誘拐詐欺は、どのくらい頻繁に発生しているのかは不明ですが、日常的に起こりうる可能性があると言えます。

技術の進歩は恐ろしいスピードで私たちに迫っていますね。どう自分の身を守っていけばいいのかなぁと思わされました。