如今人工智能越来越普及,给生活带来不少便利的同时,也被不法分子钻了空子。这两年不少人遭遇了AI合成音视频诈骗,这种骗局隐蔽性极强,一不小心就可能中招。马上金融整理了相关诈骗套路和防范要点,帮大家提高警惕,守护好个人财产安全。

AI诈骗和传统诈骗最大的不同,就是不法分子会先悄悄采集你的个人信息。他们常通过微信、电话等常见渠道,伪装成客服、兼职招聘人员,甚至婚恋交友对象接近你。在聊天过程中,用各种话术诱导你发音、发面部照片,不知不觉就把你的声音、面部信息收集到手。
拿到信息后,不法分子就会用AI技术合成虚假的音视频。接下来的套路花样百出,但核心都是骗取信任后牟利。有的会伪装成你的家人、亲友,用合成的声音打电话说“出事了急需用钱”,或者发合成视频求救,要求转账;还有的会冒充明星、网红,用合成形象发布虚假消息,诱导粉丝打赏、投资;甚至有不法分子冒充工作人员传播不实信息,骗取泄露银行卡密码、短信验证码等敏感信息。
这种利用AI技术的诈骗,因为声音、画面都和真人高度相似,很容易让人放松警惕。尤其是遇到亲友求救的紧急情况,很多人会下意识相信,从而落入圈套。有不少受害者就是因为没核实对方身份,仅凭熟悉的声音就转账,最后造成了不小的财产损失。
马上消金提醒大家,防范AI诈骗关键要做好这几点。首先,不要轻易向陌生人泄露自己的声音、面部信息,遇到要求发语音、拍面部照片的陌生请求,一定要果断拒绝。其次,接到亲友借钱、求救的电话或视频时,不要着急转账,务必通过多个渠道核实身份,比如回拨对方常用号码、联系共同亲友确认情况。
另外,对于明星、网红的各类投资、打赏邀约,以及陌生“工作人员”索要敏感信息的要求,都要保持警惕。正规的沟通和业务办理,都会通过官方渠道进行,不会通过私人微信、陌生电话提出转账或信息泄露的要求。
科技发展的初衷是便利生活,却被不法分子用来行骗。这就需要我们多一份谨慎,多了解各类诈骗套路。马上消费金融也会持续做好金融安全科普,助力大家提高风险防范意识。如果遇到可疑情况拿不准,建议及时向亲友或官方渠道确认,避免遭受财产损失。返回搜狐,查看更多
