注意啦!淮安发生AI换脸换声诈骗的案件了。和您视频通话的人可能是骗子伪装的。诈骗分子运用AI技术一键换脸、声音合成,让人防不胜防。大家一定要提高警惕。
近日,淮安市公安局反诈中心发布反诈预警警情通报。2024年3月3日,淮阴区刘某收到同学发来的QQ消息,称其QQ转账被限制,希望刘某能帮忙发QQ红包给其表姐。同学向刘某要了微信收款码,随后发来了一张转账截图,声称设置了“2小时后到账”,但是表姐急用钱希望刘某能尽快转账。刘某有些犹豫,就询问对方现在人在哪里,对方发来了一段视频,声音和容貌都是同学本人,刘某彻底打消疑虑。之后,同学将刘某拉进一个QQ群中,多次让刘某在群里发QQ红包,共计6499元。刘某银行卡内没有余额了,才发觉不对劲,选择报警。
据了解,AI诈骗常见手法包括声音合成和AI换脸等。诈骗分子通过各种方式提取声音素材,获取声音特征后进行声音合成,之后通过背景环境渲染并添加合成后的声音进而实施诈骗。人脸效果更易取得信任,诈骗分子利用算法精准地识别素材视频中的人脸图像,提取如眼睛、鼻子、嘴巴等关键面部特征,再将这些特征与目标人脸图像进行匹配、替换、融合,生成视频或照片来“以假乱真”,进而实施诈骗。
警方提醒:保护信息、杜绝泄露。不随意在网络上暴露人脸、指纹、声音等个人信息。多重核验,确认身份。可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。杜绝诱惑,提高警惕。不登录、不下载来路不明的网站、软件,不点击不明平台发来的广告、中奖信息,以免被病毒侵入。如不慎被骗或遇可疑情形,请注意保护证据,立即拨打110报警。■据淮安警方