AI假扮女儿打视频称妈妈开门 骗局引发警惕
AI假扮女儿打视频称妈妈开门 骗局引发警惕!4月的一个工作日,美国佛罗里达州居民埃里卡·安德森正在家中上班,手机屏幕弹出一条视频通话请求,显示的号码是她17岁女儿的手机。接通后,屏幕里的“女儿”穿着平日的校服,声音完全一样,说:“妈妈,开门,我不舒服。”安德森感觉不对劲,随即向对方提问:“昨晚你们吃了什么?”屏幕里的“女儿”答:“天呐!妈妈,我不知道。”安德森挂断电话,调出门口监控摄像,发现门前空无一人。于是,她打电话给学校,工作人员回答说,女儿正在考场里答题,手机被锁进了储物柜。

5月的调查显示,这通电话是AI伪造的。一名青少年尝试恶作剧,使用了一款AI软件,该软件可以为通话实时生成假画面和假音频,人脸和声音都可以被替换成任意指定的人物。安德森事后表示,她听说过AI电话骗局,但从没想到会有视频通话。这件事让她感到害怕,并意识到需要担心的事情多了很多。
涉事青少年的家长已向安德森道歉,安德森未提起诉讼。但她在事后采取了一系列防范措施,例如与女儿约定只有家人知道的密码词、更换门禁报警系统、调整现有摄像头角度,并新增了两台安全摄像头。
当地杰克逊维尔警察局经济犯罪部门已将AI伪造电话列为重点侦查方向,指派专职侦探负责调查该案。该部门指出,此类案件正在激增。网络安全公司迈克菲的研究显示,AI语音克隆系统只需约3秒的音频样本,即可生成相似度达85%的声音复制品。目标人物发布在社交媒体上的短视频,足以成为AI复制素材。
据美国联邦调查局2025年互联网犯罪报告,全年共记录超过2.2万起与AI相关的欺诈投诉,损失总额超过8.93亿美元。安全研究人员估计,此类案件的实际报案率不足5%,真实损失规模可能远高于官方统计。
FBI建议,手机用户接到可疑视频通话时应立即挂断,用已知号码重新拨打以核实对方身份;观看视频时,可留意手部变形、面部边缘不自然等破绽。安全专家普遍建议,家庭成员之间应提前约定一个密码词,在紧急电话中用于核验对方是否真实。这一方法被视作目前对抗AI伪造视频通话的最低成本防线。
安德森将事件经过发布到了个人社媒账户。视频获得近2000万次播放,数千名用户在评论区表示自己或家人曾遭遇过类似的AI视频通话骗局。
所有文章未经授权禁止转载、摘编、复制或建立镜像,违规转载法律必究。
举报邮箱:1002263188@qq.com