《Deep Leakage from Gradients》
Authors:Ligeng Zhu Zhijian Liu Song Han
Neural Information Processing Systems (NIPS) 2019
Papers published at the Neural Information Processing Systems Conference.
被引用 73次



麻省理工研究证明了:共享梯度将泄漏私人训练数据

核心思想:再构建一个神经网络来学习源数据,正常网络利用梯度更新权重参数,而他利用梯度来学习更新源数据和标签。

如何从梯度中得到源数据(即泄漏)
如何从梯度中得到源数据(即泄漏)

随着批量大,要学源数据会更难:
如何从梯度中得到源数据(即泄漏)
学习恢复出的效果:
如何从梯度中得到源数据(即泄漏)
开源代码,我跑的结果:
如何从梯度中得到源数据(即泄漏)

相关文章:

  • 2022-01-02
  • 2022-12-23
  • 2022-12-23
  • 2021-04-09
  • 2022-02-22
  • 2022-12-23
  • 2021-05-26
猜你喜欢
  • 2022-01-16
  • 2021-04-03
  • 2021-08-27
  • 2021-04-17
  • 2022-12-23
相关资源
相似解决方案