
7月3日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在第十届世界和平论坛大会上指出,现阶段用人工智能算法来伪造视频、照片、语音已不存在技术难题。“试想一下,如果将来你没讲过的话,被别人造谣为你讲过的,而且后期技术也难分辨真假,那这对社会的危害是极大的,因此对于这一问题各方都应重视。”张钹院士说。
张钹院士关于深度伪造技术的上述表示引发人工智能圈不小的轰动。
深度伪造技术从2017年刚诞生时用的卷积神经网络到现在最新的对抗生成网络,具有极强的自适应性,通过在对抗生成网络中不断自我优化,不断升级换代,甚至已经达到了“真实得可怕”的水平。语音深度伪造是指利用人工智能技术(如机器学习算法、神经网络等)对人的声音进行“学习—模仿”,这项技术的出现意味着任何人的声音都可以被伪造和替换。
那么问题来了,声纹身份认证究竟能否应对语音深度伪造的挑战?
说巧不巧。就在本周,自定义发音密码攻防挑战在即,但来自海康威视、浙江大学等知名企业与高校的7组挑战者,最终却纷纷选择放弃挑战。
先来回顾一下挑战规则:
攻击产品:自定义发音密码。用户可自主选择,1~10 个可自定义发音的密码数目;发音由用户完全自主定义,不限语种,不限方言种类,不限读音。
“声纹(可能)是目前除DNA外,最可靠的身份认证方式。这个跟郑方教授他们领导的小组的长期研究分不开。”
为什么?
自定义发音规则充分利用了“语音信号是变(语音内容)与不变(说话人身份)的高度统一”的特性,让用户介入了管理,从而提高了系统的安全性,作为目前肉眼可见最安全的声纹识别系统,它实际上已具备第三代人工智能所强调的某种“人机协同”特征。这一特征只有语音信号才具备,其他生理特征诸如人脸、指纹等都无法做到。
也就是说,单以深度学习对抗深度学习,攻易而守难;反之,则攻守之势异也。
最后,再来尝试回答一下开头提出的问题:声纹技术究竟能否应对语音深度伪造的挑战?
单论技术,有的声纹技术能,有的声纹技术不能。
若论系统,我们的,能。
但还有这样一句话,“世界上没有攻不破的盾,也没有不可抵挡的矛”。因此,自定义发音密码攻防挑战报名通道仍将保持开启,我们随时欢迎各位技术人员前来应战!
免责声明:本文旨在传递更多科研资讯及分享,所有其他媒、网来源均注明出处,如涉及版权问题,请作者第一时间后台联系,我们将协调进行处理,所有来稿文责自负,两江仅作分享平台。转载请注明出处,如原创内容转载需授权,请联系下方微信号。


