近日,杭州警方披露AI大模型换脸窃取个人隐私全国首案,令人细思极恐。
犯罪分子将受害人静态照片,输入到模型中,再通过文字、语音提出需求,生成一段活体视频。这段活体视频可以模仿人脸进行点头、眨眼、侧脸,突破平台人脸认证,强制登录他人账号,获取大量受害人隐私数据出售获利。
这只是AI技术应用乱象的冰山一角。近年来,人工智能技术迅猛发展,带来更多新机遇和更便捷服务,但新技术也往往被一些不法分子利用,成为违法犯罪的“帮凶”。
AI“换脸”实施诈骗、AI伪造图片传播谣言、AI推销电话让人不堪其扰……种种乱象,不仅侵犯消费者合法权益,威胁人身财产安全,也阻碍了AI行业的健康有序发展。
毋庸置疑,AI是科技发展的重要方向,是各国竞争的科技高地。但发展AI的同时,绝不能忽视其风险隐患。为狂飙的AI系好“安全带”,让其成“帮手”而不是“帮凶”,重在加强治理和规范。
在近期举行的2024年国家网络安全宣传周上,AI的安全应用问题,成为热门话题。期间,相关部门发布《人工智能安全治理框架》1.0版,提出人工智能安全治理原则等方向性的破解思路。一些应对AI安全风险的黑科技也亮相网络安全博览会,比如AI实时鉴伪系统,针对AI换脸、AI拟声等诈骗套路进行有效识别、反制。
科技从来都是“双刃剑”,是好是坏,是益是害,关键看握剑的人准备怎么用。在大力发展AI的时候,务必增强安全意识,加强相关安全技术推广应用,推动社会各方形成治理共识,让AI更好造福人类。(文案:马若虎)
【责任编辑:李洁琼】