这两天,话题“AI诈骗正在全国爆发”冲上微博热搜。
话题带出了一个让人咋舌的消息:5月8日,包头市公安局对外发布了一起使用智能AI技术实施电信诈骗的典型案例,福州一老板10分钟被骗走430万元。令人觉得讽刺的是,这位受害人,居然还是一名科技公司法人代表。
近来,不少利用AI换脸实施诈骗的案例在国内外轮番上演,让人防不胜防。今天,小编跟大家一起走近AI诈骗,一层层撕下它的伪装。
看看他们的被骗经历。我们先来看看这位福州法人代表郭先生的经历——2023年4月20日中午,郭先生的“好友”突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想借郭先生公司的账户走账。基于对好友的信任,加上已通过视频聊天确认了身份,郭先生没有核实“好友”钱款是否已到公司账上,就分两笔将自己公司的430万元转到了“好友”朋友的银行卡上。待郭先生拨打好友电话,请其查收款项时,才知道自己上当了。民警告诉他,骗子是通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
你们一定听过诈骗分子用PS不雅照片、不雅视频实施敲诈的案例。如今,这些套路在诈骗分子眼中已经OUT了。AI技术一上线,他们迫不及待地迭代诈骗套路,发来一个视频或者直接视频通话,活生生的一个人,谁会不信?此前,南京就出现过一起利用QQ视频进行AI诈骗的案例。受害人小李表示,大学同学“小王”通过QQ向自己借3800元,原因是表姐住院了。小李当即表示怀疑。然而,当“小王”给她传来了一个5秒左右的动态QQ视频后,她深信不疑了。视频的背景就在医院,视频里,“小王”还亲切地打了声招呼。几千块钱一转过去,小李马上被“小王”拉黑。原来,这个5秒的视频是AI伪造的。
这类 AI 骗局不止在国内发生。据Gizmodo报道,英国最近同样发生了一起涉案金额高达22万英镑(约合人民币192.4万元)的诈骗案件。一名能源公司CEO在不知情的情况下,被骗子“DeepFake”(深度伪造)了自己的声音。随后,骗子用这段声音假扮CEO,骗走了能源公司22万英镑。上当后,CEO才明白,这是一个AI合成语音的骗局。
AI诈骗有这么“三板斧”
从已经公布的案例中,小编梳理总结了一下,AI诈骗至少有这么“三板斧”。
第一板斧,伪装声音
这骗子啊,通过电话录音给你形成一个语音素材库,然后根据素材合成你的声音进行诈骗。更高端一点的,再导入你老家的方言语料库。这伪装出来的口音,亲妈都很难分辨出来!
第二板斧,换脸技术
老话说,“耳听为虚,眼见为实”。声音可以伪装,照片可以P图,视频你总不可能造假了吧?你要这样想,受骗的风险可就很高了。可别小看了AI,它可以通过你在微博、朋友圈等社交平台上发布的照片、视频提取你的面部信息,对视频进行换脸,顶着你的脸,用着你的声音,讲着你的方言实施诈骗。03
第三板斧,盗取微信、qq号等即时通讯软件账号
如果你平时不注意,总喜欢点击一些来历不明的链接,那么你的微信、qq等即时通讯软件的账号,就很有可能会被盗用。骗子在盗取你的微信、qq等账号后,并不会马上骗人,他们会先观察你的使用时间,然后选择你不常看手机的那段时间向你的亲友实施诈骗。用着你的微信、qq号,再打着AI伪造的视频电话,别说亲妈了,你自己看到都会被吓一跳吧!
面对AI诈骗,我们束手无策吗?NO!如何防范AI换脸诈骗,小编特地请教了湖南省反电诈中心的民警,这就教你几招!
第一,遇见转账借钱的,你多留几个心眼。微信打了视频,你再打个手机电话确认一下,发个短信,或者和他身边的人再确认一下。还可以讲一些只有你们俩才知道的小秘密来确认对方身份,这个挺管用的。
第二,来历不明的链接千万不要点,遇见路边的扫码活动,也不要参加。谁知道后面,有什么坑等着你。切记,天上不会掉馅饼,不贪小便宜,就很难吃大亏。
第三,假如真的有“好友”打来视频电话借钱,请盯着他的眼睛看。如果是利用AI技术依靠照片或视频伪造出的“朋友”,他是不会眨眼的,或者眨眼的动作很不自然,有些眨着眨着眼睫毛会掉下来。
第四,由于AI换脸多采用正面照,程序无法处理突然出现在面前的物体。你可以要求“好友”用手指或者手掌在脸上来回晃动,或用手掌挡住部分脸,如果对方面部出现扭曲、变形,八成就是骗子了。最后,请各位都在手机里下载一个“国家反诈中心APP”吧,关键时刻,它的诈骗预警功能可以保护你!
初审:汪 杨
复审:傅仁斌
终审:袁万茂