为什么要NetWork Compression?

因为一些小的设备上只有有限的存储空间,有限的power,。。。

所以要将network compression才能放到这些设备上面

【李宏毅】机器学习 笔记13(NetWork Compression)

network compression的outline:

【李宏毅】机器学习 笔记13(NetWork Compression)


一、network purning

network有多余的参数,将这些多余的参数减掉,实现network的compression
【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

大的network更容易优化:

【李宏毅】机器学习 笔记13(NetWork Compression)

lottery ticket hypothesis:

【李宏毅】机器学习 笔记13(NetWork Compression)

另一篇paper:

【李宏毅】机器学习 笔记13(NetWork Compression)

实际中的问题:

在删掉一些weights之后,newwork的架构变得不规则,不方便实现

【李宏毅】机器学习 笔记13(NetWork Compression)

解决办法:

一个neuron整体删掉:

【李宏毅】机器学习 笔记13(NetWork Compression)

 

二、Konwledge Distillation

用小的network去模拟大的network:

【李宏毅】机器学习 笔记13(NetWork Compression)

一个技巧:

同除一个参数T

【李宏毅】机器学习 笔记13(NetWork Compression)

 

三、Parameter Quantization

【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

四、Architecture Design

在中间插入linear的一层,使参数减少:

【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

【李宏毅】机器学习 笔记13(NetWork Compression)

五、Dynamic Computaion

根据需要,动态地选取中间的一些过程量作为output结果

【李宏毅】机器学习 笔记13(NetWork Compression)

相关文章:

  • 2021-08-28
  • 2021-07-11
  • 2021-10-14
  • 2021-07-14
  • 2021-08-14
  • 2022-01-03
  • 2021-11-26
猜你喜欢
  • 2021-12-08
  • 2021-05-08
  • 2021-04-30
  • 2021-09-14
  • 2021-03-29
  • 2021-11-06
  • 2022-01-06
相关资源
相似解决方案