在AI时代,眼见不一定是真相。一些不法分子利用“AI换脸”“克隆声音”等技术实施诈骗,已成为一种新骗局。近日,本市接连发生AI诈骗,公安红桥警方在其中一起案件中成功追回市民被骗的83万元。
事有蹊跷 紧急止付83万元
近日,市民李先生收到了一条短信,对方自称是李先生单位领导,要求李先生加其社交软件详聊,加上好友后,对方便以有急事需要资金周转为由,要求李先生向其转账,还保证事后钱款一定返还。
李先生起初并不相信,为了打消李先生的疑虑,对方主动打来视频电话,看到视频那头出现的确实是“领导”,李先生瞬间就放下了心中的戒备。分三笔向对方汇款了95万元。当天下午,李先生与朋友聊天时提起了这件事,越想越觉得事情有些蹊跷,于是到派出所报警。
接到报警,当务之急就是要把钱保住。公安红桥分局西沽派出所民警迅速与银行开启联动机制,此时已经接近银行的下班时间,民警积极协调相关银行及时对三张银行卡进行紧急止付操作。由于民警操作及时,李先生的钱款大部分得以追回,银行成功冻结了涉案资金83万元,相关钱款正在处理返还流程当中。
AI克隆声音 市民被骗7万元
前不久,李大娘接到“弟弟”的电话,告诉她自己手机换号了需要重新加一下微信,电话中,“弟弟”称自己过两天去家里看望姐姐,让姐姐把住址发在微信上。几天后,“弟弟”再次来电,说自己因打架被派出所抓了,需要赔偿对方,想找她拿点儿钱。李大娘表示有7万存款,“弟弟”则称让姐姐把现金准备好,并让朋友去家里取钱。可是取钱的人刚走,“弟弟”再次来电,称还需要五万,李大娘越想越不对劲儿,于是报警求助。
公安河西分局挂甲寺派出所立即开展工作,经过多方核实,民警认定这是一起典型的利用AI克隆声音技术冒充亲友诈骗。民警立即启动协同警务工作模式,分局多部门协作,成功锁定取钱男子王某的身份信息,火速奔赴外省将其抓获。目前王某因涉嫌诈骗罪被公安机关依法采取刑事强制措施,案件正在进一步侦办中。
对话受害人
民警:这么多钱说给就给,为什么没有一点怀疑?
受害人李先生:一开始我也不敢转,看到领导的视频头像那一刻我就彻底放松警惕了,真没想到视频还能造假。
受害人李大娘:和我聊天时,他嘘寒问暖,说话的语调确实和我弟弟一模一样,他还说他最近腿好多了,要过来看看我,我弟弟确实腿脚不方便,没想到骗子连这些细节都能掌握。
对话嫌疑人
民警:你为什么去受害人家里取钱?
嫌疑人王某:我通过一个通信软件接受“上家”指令,“上家”让我去不同的城市帮忙“取货”,我把“货”放在指定地点就能拿到佣金。
新型诈骗常见手法
合成声音诈骗
骗子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用特殊技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。
AI换脸诈骗
AI技术换脸,可以伪装成任何人,骗子会利用AI技术,将他人的脸换成熟人或亲人的脸,冒充诈骗对象的重要关系人,通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。
AI筛选受骗人群
骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
如何防范AI诈骗
多重验证 确认身份
在涉及钱款时,要提高警惕,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。
保护信息 拒绝诱惑
加强个人信息保护意识,切勿接听任何陌生人邀请的视频验证或语音聊天,谨防骗子利用AI技术搜集人脸、声音等素材,掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。
相互提醒 共同预防