当前位置:AIGC资讯 > AIGC > 正文

小伙被AI换脸的“表哥”骗走30万 声称在体制质内工作

近日,山东省济南市商河县公安局刑警大队成功破获了一起利用AI换脸技术进行诈骗的案件。这起典型案件涉及一名小伙被以“表哥”身份欺骗,最终骗走 30 万元人民币。

据了解,事发于今年 5 月份,当时一名叫黄某某的小伙在刷短视频时收到一条私信,对方自称是黄某某的表哥。通过寒暄几句,诈骗者取得了黄某某的信任,并让他添加了QQ号。表哥声称由于在体制内工作,因此以自己身份不便,请求黄某某帮忙给一个需要资金周转的朋友转账。为表示诚意,诈骗者索要了黄某某的银行卡号,并声称会先让朋友给黄某某转款,然后再由他转出。尽管收到了“转账凭证”,黄某某并未立即转账,发现并未收到实际款项。

根据警方的调查,这是一起采用AI技术进行网络诈骗的案件。犯罪团伙在境外实施诈骗,通过国内销赃洗钱。商河警方通过技术手段两次前往广东东莞,成功抓获了 7 名犯罪嫌疑人,目前案件已进入法院审判阶段。

在案件的侦破过程中,警方咨询了技术人员,指出这种实时通话的视频合成技术难度较大,但即便如此,一般小公司也难以实现,但这种诈骗手段仍然可以防范。张振华中队长表示,对于普通群众而言,保护个人隐私信息至关重要。在面对熟人或亲戚借钱的情况下,及时进行电话沟通,视频通话时可以要求对方做出固定手势或对面部进行遮挡,以判断对方身份的真伪。

AI诈骗形式主要有两种:一是通过技术手段合成换脸、换声的视频或语音,主要用于紧急情况下的网络诈骗。为预防此类案件,相关部门已出台管理规定,要求深度合成服务者审核使用者的输入数据和合成结果。此外,人脸识别技术使用者也应每年对设备进行安全性评估,采取有效措施保护设备免受攻击。

警方进一步强调,从源头上预防此类诈骗案件的发生,保护好个人信息至关重要。不随意接听陌生电话,避免在社交账户上过度暴露个人信息,谨慎提供人脸照片,以及使用小众软件时都需要提高警惕。最后,公众应当自觉树立防诈骗意识,对涉及财务信息的电话请求采取其他方式与好友进行确认。

更新时间 2023-11-22