AI诈骗正在爆发!警方紧急提醒!

5月22日

话题# AI诈骗正在爆发 #

冲上微博热搜

4月20日中午

福建福州郭先生的好友

突然通过微信视频联系他

称自己的朋友在外地竞标

需要430万保证金

且需要公对公账户过账

想要借郭先生公司的账户走账

基于对好友的信任

加上已经视频聊天

核实了身份

郭先生没有核实

钱款是否到账

分两笔把430万

转到了好友朋友的银行卡上

之后

郭先生拨打好友电话

才知道被骗

骗子通过智能AI换脸

和拟声技术

佯装好友实施了诈骗

“从头到尾都没有

和我提借钱的事情

就说会先把钱给我打过来

再让我给他朋友账户转过去

而且当时是给我打了视频的

我在视频中

也确认了面孔和声音

所以才放松了戒备

郭先生说

幸运的是

接到报警后

福建福州、内蒙古包头

两地警方和银行

迅速启动止付机制

成功止付拦截336.84万元

但仍有93.16万元被转移

目前正在全力追缴中

类似的AI换脸诈骗案件

安徽也有发生

4月27日

安庆经开区

发生一起“冒充熟人”诈骗案

民警调查发现

诈骗分子使用了一段

9秒钟的智能AI换脸视频

佯装“熟人”让受害人放松警惕

从而实施诈骗

4月28日

专案民警连夜赶赴外省

抓获3名涉诈嫌疑人

5月22日

警方将先行追回的

132万元被骗款返还给群众

目前案件正在进一步侦办中

AI诈骗常用手法

第一种:声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例

某公司财务小王接到领导电话要求立刻给供应商转款2万元 ,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真 ,在1小时内转款完成,后发现被骗。

第二种:AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

案例

近日,小李的大学同学通过QQ跟她借钱 。对方打过来一段四五秒的视频电话 ,小李看到确实是本人,便放心转账3000元 。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。

第三种:转发微信语音

骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

第四种:AI程序筛选受害人

骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。

如何防范?

多重验证,确认身份

如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;

对突如其来的电话保持警惕 ,即使是来自你认识的人,因为来电显示的号码可能是伪造的;

网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

如果有人自称“熟人”、“领导” 通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认, 不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

如不慎被骗或遇可疑情形,请注意保护证据并立即拨打96110报警。

来源 | 中国新闻网 安庆警方

举报
评论 0