“AI换脸”诈骗防不胜防( 二 )


隐私泄露的黑灰产业链
“我的人脸信息他们从何而来?”“人脸识别会被攻克吗?”不法分子有机会实施AI换脸诈骗,背后反映出公民面部特征等生物识别信息、家庭身份信息、财产信息等隐私泄露的问题 , 更值得深思 。
“诈骗分子给你发个链接,上传几张照片、填写个人信息就能领几块钱红包,这样的收集方式太普遍了 。”北京某高校一相关技术资深研究员对北京商报采访人员表示 , 当前公民个人信息被非法收集、交易、挖掘、利用的问题长期存在,并且已经形成黑灰产业链 。AI技术被运用到黑灰产业链上,恰恰使得不法分子对个人的画像越来越精确,借此开展精准诈骗 。
在北京寻真律师事务所律师王德怡看来 , 从法律层面上来讲,我国缺少一部对公民个人信息进行完整保护的法律或行政法规 。一些保护性规定只是在一些部门规章或地方性规定中有体现 。生活中使用人脸识别技术非常普遍,但相关数据的传输、存储、保护是一个大问题 。一旦发生数据泄露或者有意出售,难以追究责任 。如何在提供技术方便的同时 , 又保证个人数据安全,需要立法划清权利义务边界 。
一方面,是隐私信息的采集和使用者未按规定收集、存储、使用和销毁个人隐私,导致在对隐私数据设定严格的访问控制规则上出现疏漏;另一方面,公民能否建立良好隐私保护意识,同样起到了至关重要的作用 。石霖建议,当用户遇到采集人脸等个人隐私数据的网站、App,应该谨慎和仔细阅读敏感信息的收集协议,了解适用范围,谨慎将人脸等个人隐私数据授权给不必要的企业和个人 。
多主体全链条治理
除了消费者自身提高网络安全意识,对于AI换脸相关风险的预防与整治,需要从平台、相关技术服务商,到监管、司法形成多主体、全链条的治理 。
北京市中闻律师事务所律师李亚指出,《互联网信息服务深度合成管理规定》明确规定 , 不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动 。针对网络用户、服务平台,可通过对AI深度合成技术的使用目的以及数据和技术管理进行规制,实现深度合成技术的合理使用 。
“在人脸等敏感个人信息的采集使用者层面,应该严格落实法律法规的相关要求,设定采集和使用范围、访问规则、销毁策略等,并配备相关的技术手段提升安全防护能力 。在技术提供方层面 , 应该不断提升换脸视频的识别能力,降低识别系统的运行成本,逐步实现识别系统的广泛普及应用 。”石霖补充道 。
此外,监管是必不可少的一环 。石霖表示 , 应加强涉及人脸信息采集、使用的互联网信息服务提供者的监管工作,依法依规对采集、存储、使用、销毁等关键环节的制度、技术进行执法检查,帮助企业提升安全合规能力 。
风险提示
针对性强、不易识别是AI换脸新型骗局的主要特征 。对于普通消费者来说,如何有效甄别、避免遭受财产损失?
专家建议,如遇此类诈骗手段,最简单的方法,可以要求对方在视频对话时,在脸部的前面通过挥手的方式进行识别,或让对方摁鼻子、捏脸观察其面部变化 。实时伪造的视频,在挥手的过程中,会造成面部数据的干扰,很容易露出破绽;如果是真人的鼻子、脸部 , 按下去会变形,但AI生成的鼻子并不会 。
另外,如果觉得聊天内容不太对劲 , 可以放大窗口查看光线和阴影是否正常 , 人像边缘有没有模糊;还可以在点对点的沟通中问一些只有对方知道的问题,验证屏幕对面人的身份真实性 。
当然,最重要的还是消费者应提高网络安全意识,防患于未然 。谨慎授权人脸等个人隐私信息,不点击陌生链接、扫描陌生二维码,不轻易泄露个人银行卡账户、密码、验证码等关键信息 。




推荐阅读