AI能模仿你或你家人的声音进行诈骗!面对这种情况,你该如何保护自己?

3 个月前
986 次浏览
时事新闻
 

人工智能技术越来越发达。似乎是“理所当然”的,这种技术也被骗子们应用到了诈骗之中。最新的 AI 诈骗已经能够模仿人们的声音,最近一则网络诈骗电话就模仿了总统拜登,呼吁新罕布什尔州的选民不要参加总统初选。对此该州总检察长办公室表示,已经针对这些电话启动了调查。

当然骗子们能利用 AI 做到的不仅仅是伪造知名公众人物,AI 还可以模仿你、你的家人进行诈骗,让电话那头的受害者乖乖向骗子汇款。面对这种情况,我们应该如何保护自己呢?NordVPN 网络安全专家 Adrianus Warmenhoven 提出了如下建议。

首先要进行核实和验证。当遇到类似拜登那种公众人物的 AI 声音诈骗时,你应该双重核实你所听到的是否正确。例如在模仿拜登的这起诈骗事件中,AI 告诉新罕布什尔州选民要“为 11 月的大选保存”他们的选票,但只要谷歌搜索一下就可以发现,注册的共和党人和未声明党派的选民都可以在初选中投票。如果你怀疑自己成为网络犯罪的目标,你也可以上网查查是否有任何最近的关于 AI 生成声音诈骗的报导。

如果你接到的电话听起来是来自家庭成员,那么首先要保持镇定,不要惊慌失措。你可以尝试先挂断电话,通过你以前已知的他们的电话号码,而不是他们打给你的那个号码,打回电话或发送短信,以确认他们是否安全。如果你接到一个冒充银行的骗子的电话也是如此,不要相信他们的说辞,要尽快挂断,并拨打银行网站上或银行卡背面列出的电话号码进行查证。

Warmenhoven 强调,特别重要的是要迅速挂断与这类骗子的电话,因为他们可以使用 AI 克隆你的声音,而且不需要你说很长的一段话。“即使你只是说‘喂?有人吗?’或者只是咕哝一下,你都会泄露很多单词和你声音中的语调,然后骗子就可以克隆你的声音。”根据 McAfee 的研究,一些免费的在线工具只需 3 秒钟的音频,就可以克隆某人的声音,简直不费吹灰之力。

责任编辑:  
来源:  CNBC
点赞 (0)
脸书分享
微信分享
0条评论