一、介绍两篇论文

1.《ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression》

2.《Channel Pruning for Accelerating Very Deep Neural Networks》

二、ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression》

这两篇论文我觉得本质上是相同的方法,这里主要对第一篇论文介绍

paper reading之卷积神经网络压缩(二)

paper reading之卷积神经网络压缩(二)

paper reading之卷积神经网络压缩(二)

paper reading之卷积神经网络压缩(二)

paper reading之卷积神经网络压缩(二)

三、Channel Pruning for Accelerating Very Deep Neural Networks

这里只给出对最小化error公式的理解

paper reading之卷积神经网络压缩(二)


paper reading之卷积神经网络压缩(二)



相关文章:

  • 2021-05-06
  • 2021-11-27
  • 2022-12-23
  • 2022-01-01
  • 2021-04-14
  • 2021-04-06
猜你喜欢
  • 2021-09-28
  • 2022-12-23
  • 2021-09-09
  • 2022-02-19
  • 2021-09-18
  • 2021-06-24
  • 2021-11-13
相关资源
相似解决方案