AI换脸、AI变声——深度伪造存风险,鉴别伪造正在AI对抗AI

叶心冉2021-07-10 16:38

经济观察网 记者 叶心冉 深度伪造与鉴别伪造之间在展开一场技术博弈。

7月9日,2021世界人工智能大会相关论坛上,国家工信安全中心人工智能所副所长刘永东在发表演讲时指出,当前,人工智能的安全风险可分为三类,一是技术的内生风险,二是数据隐私风险,三是技术滥用风险。 

深度伪造便是属于技术的内生风险。资料显示,深度伪造技术源自英文词汇deepfake,是计算机“深度学习”(deep learning)和“伪造”(fake)的组合,指通过深度学习伪造数字内容的人工智能技术,实质上是一种声音、图像与视频的智能处理技术,能够模仿特定人物或者让特定人物看起来在做特定的事件。其效果可以达到以假乱真的程度,被称为“音视频领域的PS技术”。

前段时间,从抖音到微博,多位大咖齐唱“蚂蚁呀嘿”的画面不断刷屏,这一玩法来自于国外的一款AI软件——Avatarify。这其实便是深度伪造技术的应用。

瑞莱智慧 RealAI CEO田天指出,如果深度伪造技术被用于国家领导人或是知名专家虚假恶意的传播,会在社会上引起不良后果。“所以我们需要用新的技术,用AI来对抗AI,用新的技术去检测AI伪造的内容。”

7月9日,瑞莱智慧发布了DeepReal深度伪造内容检测平台(基于第三代人工智能),能够对多种格式与质量的图像进行真伪鉴别,为遏制和防范深度伪造技术的大规模滥用提供支撑。

瑞莱智慧RealAI副总裁唐家渝指出,深度伪造技术检测工作当前面临两大难点:一是肉眼难以辨别,传统人工内容审核团队无法应对,二是深度伪造检测面临"强对抗性",新型伪造方法层出不穷、网络传播环境复杂、算法模型存在结构性缺陷等。

识别技术与伪造技术一样扎根于深度学习算法,根据唐家渝介绍,一方面利用贝叶斯深度学习,将伪造视频的先验知识进行融合,以此增加对预测结果确定性的预判;二是能够快速即时应对新型的深度伪造类型,一是利用贝叶斯深度学习,二是利用了小样本增量学习的方法,使得在初期见到少量新型伪造数据时,便能学习到伪造特征。

前不久,国家关注到深度伪造技术所存在的风险,对多家企业进行了约谈。3月18日,国家互联网信息办公室、公安部指导各地网信部门、公安机关近日加强对语音社交软件和涉“深度伪造”技术的互联网新技术新应用安全评估工作。映客、小米、快手、字节跳动、鲸准数服、云账户、喜马拉雅、阿里巴巴、网易云音乐、腾讯、去演等11家企业被各地方网信部门、公安机关依法约谈。

中国信息安全研究院副院长左晓栋曾指出,此次有约谈,一方面是为了给部分平台上存在涉深度伪造技术的安全隐患敲警钟;另一方面也要求行业内的相关企业依法依规保护用户个人信息和名誉权,对于可能涉嫌违法犯罪的相关线索,要及时上报有关监管部门。

过去言有图有真相,但是现在视频都不一定代表着真相。深度伪造技术一方面有着被滥用的风险,另一方面,这其中还存在对人脸信息等生物识别信息的保护缺位的问题。

人脸识别已经逐步被运用到多个场景当中,但是人脸识别带来的数据安全问题却也愈发严峻。当人脸识别站上风口,争议未曾间断。其边界在哪里?安全性如何确保? 

多起企业违规收集人脸识别的事件曾被报道。以徐州为例,今年6月,徐州市公安局鼓楼分局网安大队对徐州某工程项目部检查时,发现该单位使用的人脸识别系统,未对该系统采集到的个人信息采取保护措施。1月还曾发现徐州某楼盘售楼处安装使用了人脸识别系统,但在未征得客户同意的情况下,非法收集、存储人脸信息数千条,用于营销使用。实际上,这已经构成了非法获取个人信息的违法行为。

此前在采写智能家居相关报道,与企业进行采访和接触的时候,涉及智能安防、人脸识别的企业会对人脸识别安全性的提问尤为敏感、谨慎。

唐家瑜表示,人脸识别系统不安全的地方,在于两个方面看,一是本身算法的问题,如果有人利用算法漏洞做相应的攻击,就会有安全问题,另一类问题则与隐私相关,比如图像被非法倒卖,再比如银行资产等的风险。

田天指出,AI之间的对抗是一个长期的过程,且对抗的方法也多种多样。但从总体而言,“我们需要的是算法更加可靠安全、数据安全并且应用可控的人工智能。”

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。
华东新闻中心记者
关注华东地区上市公司,重点在消费、制造领域,善于捕捉热点,追踪有趣之事。 新闻线索联系邮箱:yexinran@eeo.com.cn。