但如今,一种新的诈骗手段疯狂席卷而来,能够在10分钟骗取高达430万元的巨额资金,在我们没有反应过来的时候,就已经被骗了,这样的诈骗手段的成功率接近100%。
那么,这种诈骗方式究竟是什么,我们又该如何防范?
换脸诈骗!
在当今这个科技日新月异的时代,AI技术无疑是一把双刃剑,一方面,它为我们的生活带来了诸多便利,像智能语音助手帮我们轻松处理各种事务、AI智能安防让生活环境更加安全等等。
但另一方面,一些不法分子却动起了歪脑筋,利用AI技术来实施犯罪,如今,AI换脸技术已经不再是只存在于科幻电影中的情节了,它正逐渐成为不法分子实施网络诈骗的新手段,悄然侵袭着我们的网络安全防线。
在宁夏固原市,有一个实例,当地居民马某某在闲暇时浏览网络平台上的视频,突然收到了来自“表哥”的好友添加请求,在成功添加为好友后,“表哥”立即向他发起了视频通话。
他声称自己正在非洲工作,由于网络状况不稳定,不宜转账,但当前需要与公司签订一份合同,所以他希望马某某能够先替他向公司垫付合同所需的资金,等之后网络状况改善后再将钱款归还。
被“表哥”骗了1.5万!AI换脸诈骗案细节曝光!警方提醒2024-09-1815:43大庆晚报
但是,这笔资金需要通过公司对公司的账户进行转账,因此,对方希望能够借用郭先生所在公司的账户来“临时中转”一下这笔款项。
郭先生也十分相信自己的“朋友”,也没有看款项到账,直接将430万转了过去,事后郭先生给自己的朋友发消息称事情已经办妥,但对方却对此一无所知,这时,郭先生才猛然惊醒,意识到自己被骗了,原来,与他进行视频通话的那个“好友”,竟是骗子利用AI技术合成的虚拟形象。
幸运的是,警方迅速采取了行动,福州与包头两地的警方与银行紧密合作,成功阻止了336.84万元的支付并进行了拦截,然而,仍有93.16万元的资金被不法分子转移,目前警方正全力以赴地进行追缴工作。
从这些案例不难看出,AI换脸骗局的迷惑性极强,稍不留意就可能让我们掉入陷阱,遭受财产损失,大家一定要提高警惕呀。
光明网2023-05-24《AI诈骗在全国爆发!诈骗成功率接近100%》
公众人物诈骗事件
如今,一些不法分子为了牟取私利,打起了公众人物的主意,他们利用AI技术,收集公众人物的照片,通过软件合成制作出看似真实的视频内容。
博主为涨粉合成女星视频被罚2万,法院:具有盈利的目的2024-03-2610:07·阎良区人民检察院
语音合成骗局
随着科技的日新月异,语音合成技术不幸落入不法之徒的手中,成为了他们诈骗的新“利器”,这些骗子利用语音合成技术,能够惟妙惟肖地模仿任何人的声音,并且通过精细调整语调和情感,达到极高的逼真度,几乎能够以假乱真的程度。
事实上,这是不法分子在盗取小红的语音信息后,运用语音合成技术进行的诈骗活动,他们不仅假扮小红欺骗了小丽,还利用小丽的语音去诈骗其他同学。
再看江苏句容的杨女士,她也遭遇了类似的骗局,在收到多条自称为“女儿”发来的要求缴纳报名费的语音信息后,杨女士没有过多怀疑,便直接向骗子提供的账户转账了3.5万元,直到后来,她才意识到自己上当受骗了。
如今,AI合成的视频和声音的逼真程度着实令人咋舌,迷惑性极大,普通人很难分辨出真假,对于老年人来说,就更是难上加难了。
像这样的案例还有很多,骗子就是利用人们对熟悉声音的信任,让大家在毫无防备的情况下掉入陷阱,所以面对涉及金钱的请求,哪怕听到的是熟悉的声音,也一定要多留个心眼,仔细核实对方身份。
提高防范意识
在这个AI技术日益发达的时代,面对涉及金钱转账的请求,大家一定要时刻保持警觉,切不可盲目轻信,要知道,骗子们的手段越发隐蔽和巧妙,哪怕看似熟悉的场景、亲切的声音,都可能是他们精心设计的陷阱。
要知道,骗子们会利用各种技术手段收集咱们在网上发布的信息,一旦个人信息被他们掌握,就很容易被精准定位,进而成为他们实施诈骗的目标,比如说,经常在社交平台炫耀自己的投资理财收益、详细透露自己的资金账户情况等行为,都是很危险的。