基于风格迁移的语音对抗攻击及防御研究
网络空间安全学院
Research on Audio Adversarial Attacks and Defenses Based on Style Transfer
过去几年,深度学习的对抗攻击的相关研究大部分聚焦于图像视觉领域,其中将图片进行风格迁移,通过添加噪声以误导图像识别分类模型的对抗攻击和为图片添加特定特征的后门攻击是常见的几种方式,本项目旨在对目前较为匮乏的语音识别领域中的针对语音分类识别模型的对抗攻击的攻击手段和防御措施开展研究,我们希望迁移学习图像视觉领域中基于风格迁移的对抗攻击的方式,以基于语音风格迁移来对语音识别模型进行对抗攻击,在不改变语音原本内容的前提下,探究非语义大扰动对语音识别分类模型的结果影响及对深度学习模型鲁棒性的影响,并研究对应的潜在防御措施。图像的特征添加和特定图像的识别是实现后门攻击的基础,而为音频添加特殊的特征和对音频进行特定特征的识别是深度学习在语音识别领域中的重点和难点,且该领域内的研究较少,还存在很多的空白,本项目中我们希望以风格迁移后的语音,以非语义的大扰动作为特殊的目标音频特征来实现对现有的音频分类识别模型进行后门攻击。
项目的重点是研究针对语音模型的规避攻击和后门攻击并提出相应的防御手段,我们将调研现有的对抗攻击方法和语音识别模型,基于风格迁移的思想对于语音识别模型进行规避攻击和后门攻击,同时研究该攻击的防御措施,包括对抗训练、噪声泛洪等方法,以提高语音模型对抗攻击的鲁棒性,以增强语音识别模型的安全性。