2023年丨案例35丨所见所听不一定是真的 警惕AI诈骗!

来源:    阅读次数:   2023-09-06 17:02:13   

案例简述:

随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术。5月8日,包头市公安局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。

4月20日,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他,两人经过短暂聊天后,好友告诉郭先生,自己朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生账户上,还把银行转账截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生未核实钱是否到账,先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。

郭先生急忙拨打好友电话,对方说没这回事,他这才意识到遇上了“高端”骗局,犯罪分子通过智能AI换脸技术,佯装成好友对他实施了诈骗。“当时我在视频中确认了好友的面孔和声音,所以才放松了戒备。”郭先生说。

涉案的银行卡为包头市**银行对公账户,包头市警方接到福州市公安局外协请求,立即第一时间将涉案卡信息通报**银行,在银行全力协助下,仅用时10分钟,将该诈骗账户内的336.84万元被骗资金成功拦截。同时,向福州市警方提供了剩余款项93.16万元资金流出信息,为查找剩余资金提供了突破方向。

诈骗手法:

第一种是声音合成,骗子通过骚扰电话录音等提取相关人员的声音,获取素材后进行声音合成,用伪造的声音骗过对方。例如,某公司财务接到“领导”电话,要求立刻给供应商转款 2 万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于“老板”的口音十分逼真,财务人员信以为真,完成转款后发现被骗。

另外还有 AI 换脸,因为人脸效果更易取得对方信任,骗子用 AI 技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过 AI 技术筛选目标人群,在视频通话中再利用 AI 换脸,骗取受害人信任。

防诈提示:

针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种渠道核验对方身份。如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不轻易透露身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,注意保护证据立即报警。

 

 


相关热词搜索:

上一篇:2023年丨案例34丨堵截虚假批量开卡
下一篇:2023年丨案例36丨快速管控可疑账户