AI诈骗正在爆发!警方紧急提醒!
5月22日
话题# AI诈骗正在爆发 #
冲上微博热搜
4月20日中午
福建福州郭先生的好友
突然通过微信视频联系他
称自己的朋友在外地竞标
需要430万保证金
且需要公对公账户过账
想要借郭先生公司的账户走账
基于对好友的信任
加上已经视频聊天
核实了身份
郭先生没有核实
钱款是否到账
就分两笔把430万
转到了好友朋友的银行卡上
之后
郭先生拨打好友电话
才知道被骗
骗子通过智能AI换脸
和拟声技术
佯装好友实施了诈骗
“从头到尾都没有
和我提借钱的事情
就说会先把钱给我打过来
再让我给他朋友账户转过去
而且当时是给我打了视频的
我在视频中
也确认了面孔和声音
所以才放松了戒备 ”
郭先生说
幸运的是
接到报警后
福建福州、内蒙古包头
两地警方和银行
迅速启动止付机制
成功止付拦截336.84万元
但仍有93.16万元被转移
目前正在全力追缴中
类似的AI换脸诈骗案件
安徽也有发生
4月27日
安庆经开区
发生一起“冒充熟人”诈骗案
民警调查发现
诈骗分子使用了一段
9秒钟的智能AI换脸视频
佯装“熟人”让受害人放松警惕
从而实施诈骗
4月28日
专案民警连夜赶赴外省
抓获3名涉诈嫌疑人
5月22日
警方将先行追回的
132万元被骗款返还给群众
目前案件正在进一步侦办中
AI诈骗常用手法
第一种:声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
案例
某公司财务小王接到领导电话 ,要求立刻给供应商转款2万元 ,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真 ,在1小时内转款完成,后发现被骗。
第二种:AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
案例
近日,小李的大学同学通过QQ跟她借钱 。对方打过来一段四五秒的视频电话 ,小李看到确实是本人,便放心转账3000元 。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。
第三种:转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种:AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如何防范?
多重验证,确认身份
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;
对突如其来的电话保持警惕 ,即使是来自你认识的人,因为来电显示的号码可能是伪造的;
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
如果有人自称“熟人”、“领导” 通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认, 不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
如不慎被骗或遇可疑情形,请注意保护证据并立即拨打96110报警。
来源 | 中国新闻网 安庆警方
请先 后发表评论~