收藏文章 楼主

AI改变诈骗,普通人如何自处?

版块:科技头条   类型:普通   作者:科技资讯   查看:40   回复:0   获赞:0   时间:2023-05-30 08:53:49

人工智能改变欺诈,普通人如何处理?


编者按:本文来自微信公众号“雷科技”(ID:leitech),创业邦经授权发布。


10分钟,430万。


最近,包头警方发布了一起利用人工智能进行电信欺诈的案件。4月20日,福州一家公司的老板郭先生突然收到「好友」微信视频联系,这个「好友」声称在其他地方投标需要430万保证金,需要公共账户转账,想通过郭先生的账户转账。


郭先生毫无疑问。一方面,他信任他的朋友,并在视频聊天中确认了对方的身份。此外,对方还发送了银行转账单的截图,并在不到10分钟的时间内将430万元转移到指定账户。结果,郭先生等到电话联系朋友后才发现:


我被骗了。


难怪郭先生「不小心」。根据警方公布的细节,骗子直接窃取了郭先生朋友的微信,通过智能人工智能换脸和拟声技术「模拟」郭先生的朋友们,然后发起微信视频聊天。此外,从这个过程来看,骗子可能会通过微信聊天记录或其他渠道对郭先生的朋友甚至郭先生有一定的了解,否则他不会假装投标需要巨额存款。


「朋友微信,视频聊天,怎么防?」一位网友表达了他的担忧。事件公布后,人工智能诈骗很快引起了大量讨论和分享,「全国人工智能诈骗爆发」这个话题曾经在微博热搜中排名第一。


可以理解,在过去的许多电信欺诈事件中,许多骗子会冒充亲戚、同学或朋友,通过一步一步地欺骗受害者的信任。只要我们联系家人和朋友自己的语音和视频,大多数骗局就不会被打破。


但是现在语音和视频都不可信了,越来越不可信了。


无可争议的事实是,人工智能已经改变了欺诈。


除了郭先生的案件,国外媒体Gizmodo早些时候也报道了一起人工智能欺诈事件。一家英国能源公司的首席执行官在不知情的情况下被骗子收集到了声音。然后,骗子合成了获得的声音材料,然后利用电话转账的漏洞将22万英镑转移到他的外国账户。


据首席执行官说,当他后来听到AI合成语音时,他也很惊讶,因为这个声音不仅模仿了他通常说的语调,而且还有一点他的口瘾。


模仿一个人的声音对人工智能来说并不新鲜。今年年初,微软推出了语音模型VALLL-E,甚至只需3秒钟就可以复制任何人的声音,保持语气,甚至模仿环境背景。

「AI诈骗」冲上热搜第一,我们整理了一份普通人反诈指南

图/微软

显然,这项技术无法飞入「寻常百姓家」,然而,普通人可以根据大量的声音数据,通过一些开源的语音合成技术合成真实无瑕的声音。例如,具有语音合成功能的工具Bark除了接近真人外,还可以添加背景噪音和高度真实的笑声、叹息和哭泣。


最近两个月,「AI孙燕姿」 它也在主要的视频平台上流行起来,大量的人工智能创作者通过「AI孙燕姿」翻唱不同风格的作品,也让很多网友「重新认识这些歌曲」,其中「AI孙燕姿」仅在B站一个平台上播放的版本《发如雪》就接近200万。

「AI诈骗」冲上热搜第一,我们整理了一份普通人反诈指南

图/b站截图

技术门槛的降低也给了罪犯一个机会。在郭先生的案件中,骗子窃取了他朋友的微信,大量的声音材料也很容易获得。难怪郭先生从头到尾都没有发现他朋友的声音有问题。


当然,就视频聊天而言,我们判断真伪的核心是「看脸」,毕竟,当我们生病时,我们的声音会改变,手机的降噪还没有得到很好的解决。


同时,人脸也更容易获得我们的信任。


然而,人工智能面部交换技术实际上非常成熟。新华社报道,合成动态视频的成本为2-10元。对于大型直播平台,支持实时面部交换的全套模型的购买价格为3.5万元,延迟和错误率可以很低。


除了骗子用AI换脸技术伪装成别人,最近很多主播都用AI换脸,用更知名、更流量的方式代替自己的脸。「明星」,本质上就是想用「明星」名气带货也可以称之为另一种诈骗。但更重要的是,这件事表明人工智能换脸的成本相当低。

「AI诈骗」冲上热搜第一,我们整理了一份普通人反诈指南

图/中国新闻网

生成人工智能的发展不仅可以让郭先生在视频聊天中无法区分朋友的声音和外表,还可以让人工智能孙燕姿成为顶流,让大家在手机上用一键人工智能换脸。


人们应该担心人工智能,甚至孙燕姿本人也在针对人工智能「AI孙燕姿」声明中还说,「你可能会反对,说我还能分辨出区别,它没有情绪,没有音调和呼吸(或者任何你能想到的术语)的变化。对不起,我怀疑这只是一个非常短期的回应。」


回到电信诈骗,骗子的手段层出不穷,人工智能技术使诈骗难以预防。除了监管机构的规范和指导外,虽然我们普通人不能影响人工智能技术的进化速度,但面对人工智能欺诈,我们仍然可以做一些事情。


一是保护好个人信息。


在郭先生的诈骗案中,朋友微信被盗无疑是一个极其关键的因素。


如今,微信已经成为所有中国人最重要的联系方式之一。默认情况下,他们不会想到被盗,尤其是彼此熟悉的人。不仅如此,微信上还有大量的个人信息、语音和文件,可能包括一些肖像视频和身份证,我们应该谨慎处理。


除了微信,我们还必须意识到个人隐私数据在人工智能时代将变得越来越重要。


二是核实对方的身份。


人工智能使验证身份变得前所未有的困难。毕竟,从声音到面部都可以合成,技术仍在不断迭代和优化。虽然个人会议可以避免人工智能欺诈,但显然这是不现实的。我们与家人、朋友和同事的大量互动已经转移到互联网上,包括无数的交易。


我们只能学会适应,特别是大量的转账,不仅可以依靠对方的脸和声音,而且可以通过电话和微信等不同的渠道进行确认。如果可以,最好问更多的问题,最好只有双方知道。


第三,及时拨打110报警。


电信欺诈的模式源源不断地涌现出来,许多人自信地认为他们不会被欺骗,但现实告诉我们,每个人都有被欺骗的可能性。在发现被欺骗后,我们仍然有机会挽回损失。虽然郭先生被骗了430万元,但由于及时报警,他拦截了300多万元。毕竟,警察是最了解电信欺诈的人。


然而,坦白地说,人工智能欺诈对我们普通人来说仍然太难了,尤其是验证身份的关键一步。随着人工智能的迭代,它只会变得越来越困难。


好消息是,监管层面也在跟进,随着人工智能的爆发,世界各国都在关注人工智能安全和监管问题,国家网络信息办公室发布了生成人工智能服务管理措施(草案),也强调了数据资源、生成内容、用户信息等方面的安全可信度。


本文(含图片)授权合作媒体转载创业邦,不代表创业邦的立场。请联系原作者转载。如果您有任何问题,请联系editor@cyzone.cn。

 
回复列表
默认   热门   正序   倒序

回复:AI改变诈骗,普通人如何自处?

Powered by 7.12.10

©2015 - 2025 90Link

90link品牌推广 网站地图

您的IP:3.16.215.60,2025-05-07 15:46:12,Processed in 0.0412 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com