本文提出了计算自然图像中普遍扰动的算法,在神经网络上具有很好的泛化性,并且揭示了模型在高维空间中决策边界的几何联系。并且说明了在输入空间中存在单个方向的潜在安全漏洞,攻击者可能会利用这些漏洞造成模型对大多数自然图像分类错误。

universal 算法:
[paper]Universal adversarial perturbations
μ\mu是图像分布
vv是universal扰动
k^\hat{k}是模型

universal扰动vv需要满足两个条件:
[paper]Universal adversarial perturbations
ξξ表示控制扰动vv的幅度大小
δδ表示对于所有自然图像(满足图像分布服从μ\mu)的期望扰动成功率

假如当前的vv不足够扰动xix_i,再寻找一个Δv\Delta v
[paper]Universal adversarial perturbations其要解决的优化问题为:

[paper]Universal adversarial perturbations
为了满足vpξ∣∣v∣∣_p≤ξ约束,将v+Δviv+\Delta v_i投影到一个半径为ξ\xilp\mathcal{l}_pball上,投影公式如下:
[paper]Universal adversarial perturbations
满足下式时终止算法:
[paper]Universal adversarial perturbations
[paper]Universal adversarial perturbations

  • 同一网络的不同初始化得到的扰动结果不唯一,虽然有点相似
  • 不同网络得到的扰动结果也不一样

实验结果:
[paper]Universal adversarial perturbations
[paper]Universal adversarial perturbations
[paper]Universal adversarial perturbations

  • universal 扰动在不同网络间具有较好的泛化性

[paper]Universal adversarial perturbations

  • 为了量化分类器决策边界不同区域之间的相关性,计算N矩阵的奇异值(奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关):
    [paper]Universal adversarial perturbations
    [paper]Universal adversarial perturbations
    由图可知,在曲线的开始阶段,奇异值的变化幅度特别大,到了后面,曲线变得平稳。说明对于深度神经网络而言,决策边界存在一定的相关性和冗余性。

  • 存在一个低维子空间S\mathcal{S}包含自然图像周围区域中到决策边界的大部分法向量。
    [paper]Universal adversarial perturbations

相关文章: