最近,一种利用AI技术实施诈骗的新型犯罪在高校频发。骗子通过“AI换脸”、“语音合成”等手段冒充熟人实施诈骗,已有多所高校学生中招!保卫处紧急发布此预警,请全体师生务必提高警惕。
🎭 真实案例回顾
某高校研究生小王接到“导师”视频电话,要求紧急转账科研经费。视频中“导师”面容、声音与真人无异,小王信以为真,转账8万元后才发现被骗。后经警方查实,骗子使用了AI换脸和语音合成技术。
🔍 AI诈骗常见手法
声音合成:通过短短几秒语音,即可克隆你的声纹
AI换脸:视频通话中完美冒充他人相貌
3.微信盗号+AI辅助:盗取账号后,使用AI技术伪造实时视频
AI筛选目标:分析社交平台信息,精准锁定诈骗对象
🛡️ 必备防范措施
✅ 多重验证身份
🚨 紧急应对指南
如遇可疑情况,请立即:
1️⃣ 终止通话/聊天
2️⃣ 通过原有可靠渠道核实
3️⃣ 保存相关证据(截图、录屏)
4️⃣ 第一时间联系保卫处或报警
科技发展日新月异,骗子的手段也在不断升级。请牢记:在数字时代,我们更要加强防范意识,守住财产安全的第一道防线!