一位妈妈认为她的女儿被绑架了——这只是人工智能模仿她的声音
诈骗者越来越依赖人工智能语音克隆技术来模仿潜在受害者的朋友和亲人,试图敲诈钱财。在最近的一个例子中,一位亚利桑那州的母亲向她当地的新闻附属机构讲述了她自己在这个可怕问题上的经历。
本周早些时候,詹妮弗·德斯特凡诺对斯科茨代尔地区哥伦比亚广播公司的一个分支机构说:“我拿起电话,听到女儿的声音,上面写着:‘妈妈!’她在抽泣。“我说,‘发生什么事了?’她说,‘妈妈,我搞砸了,’她在抽泣和哭泣。”
[相关:FTC盯上了AI骗子。]
根据德斯特凡诺的说法,她随后听到一名男子命令她的“女儿”交出电话,然后他用电话要求100万美元来换取他们的自由。他随后将他所谓的赎金降低到5万美元,但仍威胁要伤害德斯特凡诺的青少年,除非他们收到付款。尽管据报道,她的丈夫在暴力诈骗电话后五分钟内确认了德斯特凡诺女儿的位置和安全,但骗子可以如此轻松地利用人工智能技术模仿几乎任何人的声音,这一事实让安全专家和潜在受害者都感到恐惧和不安。
随着人工智能继续以惊人的速度发展,人工智能声音模仿等曾经昂贵而耗时的壮举变得既容易获得又负担得起。亚利桑那州立大学计算机科学教授苏巴拉奥·坎布汉帕蒂上个月接受NPR采访时解释说,“以前,[声音模仿技术]需要复杂的操作。现在小骗子可以使用它。”
[相关:为什么联邦贸易委员会要成立一个技术办公室。]
德斯特凡诺遭遇磨难的故事是在美国联邦贸易委员会发布自己的警告后不到一个月到达的,该警告反对越来越多的骗子策略。“人工智能不再是科幻电影中牵强的想法。我们现在就和它生活在一起,”联邦贸易委员会在其消费者警报中表示。并补充说,骗子现在只需要某人声音的“短音频剪辑”来重现他们的语气和语调。通常,这种原始材料可以通过社交媒体内容轻松获得。根据Kambhampati的说法,剪辑可以短至三秒钟,并且仍然产生足够令人信服的结果来愚弄毫无戒心的受害者。
为了防范骚扰和勒索形式的上升,联邦贸易委员会建议首先对此类指控持怀疑态度。这些骗局通常来自不熟悉的电话号码,所以事后立即尝试联系熟悉的声音来核实故事是很重要的——要么通过他们自己的真实电话号码,要么通过亲戚或朋友。骗子经常要求通过加密货币、电汇或礼品卡付款,所以要警惕任何包含这些选项作为补救措施的威胁。
一位妈妈认为她的女儿被绑架了——这只是人工智能模仿她的声音