McAfee最近的一份报告显示,使用人工智能支持的语音克隆的欺诈行为惊人地增加。
所谓的“冒名顶替”并不新鲜。的 联邦贸易委员会透露,仅在2022年,这种冒名顶替的诈骗就在美国造成了26亿美元的巨额损失,比前一年增长了30%。
这些骗局,也被称为“家庭紧急”骗局,涉及欺诈者操纵受害者相信所爱的人急需钱。
在一个McAfee最近的调查四分之一的受访者报告遭遇过人工智能语音骗局,十分之一的受访者承认自己受到了攻击。McAfee的研究强调,欺诈者可以从从社交媒体剪辑中提取的音频片段中克隆语音。
例如,拥有超过10万粉丝的社交媒体影响力人物埃迪·康伯巴奇(Eddie Cumberbatch)在他的祖父母收到一封信时,经历了一场人工智能骗局。 假电话冒充他的声音。他们声称,他遭遇了一场毁灭性的车祸,急需资金。
在另一起事件中,一对加拿大夫妇因类似的人工智能语音诈骗而损失了21,000加元(约合15,449美元)。
一个模仿本杰明·帕金声音的人工智能让他的父母相信,他因在车祸中意外杀害一名外交官而入狱,需要这笔钱来支付法律费用。他的父母答应了,而帕金斯向《华盛顿邮报》透露“没有保险。再也回不来了。它走了。”
McAfee首席技术官Steve Grobman警告说:“今年人工智能的进步最重要的一件事是,它在很大程度上是让更多的人接触到这些技术,包括真正实现网络参与者社区的规模。网络犯罪分子能够以过去需要更复杂的方式使用生成人工智能来制造假声音和深度造假。
McAfee报告对人工智能欺诈的看法
根据McAfee最近的数据,语音诈骗通常利用受害者与亲人的情感联系。
每10个受访者中就有一个人成为了个人目标,15%的人表示他们认识的人受到了伤害。
印度的问题似乎最严重,47%的受访者报告有过此类骗局的经历,其次是美国(14%)和英国(8%)。在所有接受调查的成年人中,36%的人表示他们从未听说过这种骗局。
近一半(45%)的人可能会回应来自朋友或爱人的要求,某些虚构的场景似乎更有说服力。
排在首位的是车祸或故障,48%的受访者表示他们可能会对这种情况做出反应。紧随其后的是一起抢劫案,占47%。
如果来电者声称丢失了手机或钱包,43%的人可能会回应,而41%的人会帮助那些说自己在国外旅行需要帮助的人。
约40%的受访者表示,他们可能会给伴侣或配偶回复,而他们的母亲的比例为24%。对于50岁或以上的父母,如果电话据称是他们的孩子打来的,41%的人最有可能做出回应。
有趣的是,大多数已知的案例涉及父母或祖父母报告骗子克隆了他们孩子或孙子的声音来实施欺骗。
了解人工智能骗局
McAfee为避免人工智能语音诈骗提出了几点建议:
- 与你的孩子、家人或密友建立一个独特的“码字”。如果你接到可疑的紧急电话,请询问代码。
- 总是质疑来源。无论是来自陌生发件人的电话、短信或电子邮件,甚至是你认识的号码,花点时间思考。问一些骗子无法回答的问题,比如“你能确认我儿子的名字吗?”或者”你父亲的生日是什么时候”。这种策略可能会使骗子感到不安,并在谈话中出现不自然的停顿,引起怀疑。
- 保持情绪控制。网络犯罪分子利用你与他们所冒充的人之间的情感联系来激起你的仓促反应。后退一步,在回应之前评估一下情况。
- 当心未知号码打来的意外电话。
与人工智能相关的欺诈正在变得无处不在,而且没有硬性和快速的方法来应对它。在最近的一次福克斯新闻采访中,一名网络安全分析师表示,如果不加以遏制,这可能会让美国人每年损失1万亿美元。
围绕这一问题进行教育,包括使用码字和其他策略来震慑欺诈者,也许是目前处理语音欺诈的最有效方法。