10分钟内被骗430万元!用AI换脸来诈骗,到底该怎么防?

   日期:2024-12-26    作者:aylpg 移动:http://ljhr2012.riyuangf.com/mobile/quote/36114.html

随着人工智能的迅猛发展,

10分钟内被骗430万元!用AI换脸来诈骗,到底该怎么防?

诈骗团伙的诈骗手段也越来越科技化,

不知不觉,

他们竟然已经用上了AI换脸技术。

近日,包头警方发布一起

利用人工智能(AI)

实施电信诈骗的典型案例,

福州市某科技公司法人代表

郭先生10分钟内被骗430万元。

用AI换脸来诈骗,

防不胜防?

细看案情,令人咋舌。郭先生的“好友”通过微信视频联系到他,两人经过短暂聊天后,郭先生才转账。

而这些诈骗分子之所以能够进行AI换脸、合成声音,就在于他们掌握了一定的受骗人信息,比如受骗人的照片、视频、语音等。那么,他们是从哪里获取的这些个人信息?

AI诈骗看似一个新问题

其实又回到了个人信息保护上

一方面,这需要个人在日常网络行为中,注意不过分暴露个人信息;另一方面,也需要严格规范技术的开发和应用,完善相关授权机制。

去年12月,《互联网信息服务深度合成管理规定》正式发布,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。换句话说,一些AI软件未经“主人”授权就随意生成人脸人声,是违法的。

诈骗分子之所以能够鸟枪换炮,就是因为之前他们可以购买的是姓名、住址、亲友关系等社会信息,而如今他们可以获取人脸、人声等生物信息了,并且可以利用技术软件进行合成。那么,是谁在充当这个技术中介?这是非常重要的一环,只要打断了这个中间环节,AI诈骗也就失去了技术前提。

整治AI换脸

当用“法”打败“魔法”

这个法,是方法、办法的法。有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。

这个法,也是法规、法律的法。此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月《互联网信息服务深度合成管理规定》的发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。

AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。

出品:民生周刊(ID:msweekly)新媒体部

素材来源:光明日报、央视新闻、北京晚报

责任编辑:刘烨烨


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号