只需一个暗号,即可戳穿语音克隆骗局

近年来,随着生成式人工智能的飞速发展,语音克隆、图片克隆甚至视频克隆(数字人)等深度伪造技术不断成熟,已经成为电信诈骗、“杀猪盘”网络诈骗等网络犯罪团伙的热门工具。如何识别和防范足可以假乱真的语音克隆已经成为提高民众安全意识的迫切议题。

近日,美国联邦调查局(FBI)发布了一项重要建议:与家人设置一个专属“暗号”或“暗语”,以应对日益猖獗的AI语音克隆骗局。随着越来越多的犯罪分子利用生成式AI技术模仿亲友声音实施诈骗,FBI提醒民众,这种简单的防护措施可以有效识别骗局,保护财产安全。

AI语音克隆骗局如何运作?

AI语音克隆技术已发展到令人惊叹的地步,犯罪分子仅需一段(短至数秒钟的)音频样本,就能生成逼真的合成语音,冒充亲友,编造紧急情况,例如“遭遇绑架勒索”或“急需医疗费用”,诱骗受害者汇款。

这类骗局往往需要获取目标人物的公开音频样本,例如播客、社交媒体视频或公开演讲。因此,如果你的声音未广泛传播,被克隆的可能性相对较低。但对公众人物、企业高管或常在网上分享内容的普通用户来说,这种风险较为突出。

暗号的力量

为了帮助公众防范AI克隆骗局,FBI在最新发布的公共服务公告(I-120324-PSA)中提出了“暗号验证”方法。其核心思路是:在家人和亲密朋友之间设置一个独特且秘密的词组,作为“身份验证密钥”。当接到疑似诈骗的来电时,只需提出要求对方说出密语,便可轻松识别对方的真实身份。

例如,可以设置诸如“老鼠进洞,黄雀出笼”、“青山不改,绿水长流”之类的暗号。当然,这些例子只是示范,实际的暗号应高度私密、独特,确保安全性。

此外,在接到异常来电时,需要留意对方的通话语气和用词。如果对方声音虽与亲友相似,但语气或措辞异常,则有可能是AI语音克隆。

语音克隆骗局只是生成式AI被滥用的冰山一角。犯罪分子还利用AI生成逼真的个人照片、身份证明文件,甚至部署聊天机器人,在钓鱼网站上引导受害者落入圈套。这些AI工具显著减少了传统诈骗中常见的破绽,例如低劣的语法和明显的假照片,大大提高了诈骗的成功率。

为此,FBI建议公众限制公开分享的个人音频和图像。例如,关闭社交媒体账户的公开访问权限,仅允许熟人查看内容,可以显著减少成为目标的风险。

需要指出的是,“暗号验证”的概念并非FBI首创。在AI语音合成和深度伪造领域,这一策略最早可追溯到2023年3月27日。AI开发者Asara Near在推特上首次提出:“或许建立一个‘人类验证’暗号会很有用。你的联系人可以在接到可疑来电时向你询问这个暗号,以确认他们是在与你本人通话,而不是一个深度伪造的数字人。”

这一想法迅速传播开来。到2024年2月,彭博社的一篇文章引用业内人士的话指出:“这一理念已在AI研究界广泛传播,因为暗号简单、免费且高效。”

AI克隆时代如何防骗

GoUpSec安全专家FunyG指出,暗号/密码/符契自古以来就是验证身份的工具。从秦汉的虎符,到现代的多因素身份验证,这种方法经久不衰。在当今高科技AI身份欺诈的时代,古老的“暗号”凭借其私密性和易操作性,依然展现出强大的实用价值。FunyG建议用户采用以下方法管理个人“暴露面”并防御深度伪造诈骗:

  • 设定暗号。与亲友创建一个独一无二的暗号,并保持秘密。这个词组应简单易记,但难以被他人猜测。
  • 减少个人语音/视频/图片在线暴露。将社交媒体账户设置为私密模式,减少对外发布的音频或视频内容,尤其是高质量语音片段和面部视频/图片。
  • 警惕异常通话。接到紧急求助来电时,仔细观察对方的语气和措辞是否与本人一致。
  • 多层验证。在财务操作等敏感场景中,始终使用多种身份验证方法,避免单一因素被攻破。
  • 保持警惕。对任何紧急的资金请求保持冷静,必要时直接通过其他渠道核实情况。

AI时代的安全思考

随着AI技术的普及与进步,诈骗手段也在快速升级。语音克隆和深度伪造技术的应用,揭示了技术的两面性:一方面,它们推动了人类生活的便利与效率;另一方面,也为犯罪分子提供了更高效、更强大的工具。

“暗号验证”方法提醒我们,在最具颠覆性的AI技术革命中,最古老的安全方法和智慧依然有用武之地。我们开发先进安全技术和防御工具的同时,不要忘记从传统文化和智慧中汲取灵感和方法,提升人的安全意识和“免疫力”。

声明:本文来自GoUpSec,稿件和图片版权均归原作者所有。所涉观点不代表东方安全立场,转载目的在于传递更多信息。如有侵权,请联系rhliu@skdlabs.com,我们将及时按原作者或权利人的意愿予以更正。

上一篇:写在IDCC2024数字基础设施国际合作大会之前

下一篇:榜上有名!360入选2024年天津市网络安全应用场景优秀案例