前段时间CVPR2018结束了,搜索quantization、compression关键词,得到的论文并不多,有空就看了几篇。CLIP-Q这个方法看起来挺简单的,而且得到的效果也不错,就简单解读一下。

论文CLIP-Q: Deep Network Compression Learning by In-Parallel Pruning-Quantization,CVPR2018。

In-parallel pruning-quantization

CLIP-Q:先剪枝后量化的压缩框架

  1. Clipping. 设置两个截止点标量cc+,用超参数p来确定,使正参数中(p×100)%的参数小于c+,同时使负参数中(p×100)%的参数大于c。位于cc+之间的参数置为0。注意的是这种减除是暂时的,在下个周期中,用这个规则作用于更新后的参数,之前被剪枝的连接可能会重新出现。
  2. Partitioning。第二步把未被剪掉的参数分到不同的量化区间。可以被可视化到一个一维数轴上。通过给定的权重位宽b,将数轴划分为2b1个区间,再加上从cc+的0区间。文中采用了Deep compression中linear (uniform) partitioning方式。
  3. Quantizing.量化值是由量化区间中的值平均得来的,并在下次的前向传播中赋值。和Clipping一样,值只是暂时的量化,可能在后面的过程进行更改。

具体用以下一个小实例做示范:

CLIP-Q:先剪枝后量化的压缩框架

首先设置p=0.25,b=2

  1. 根据设置的阈值减去不需要的小权重;
  2. 剩下的12个权重分为221=3类;
  3. 计算每一类的均值,作为量化值。

训练中量化值和全精度值都会被跟踪,其中全精度值用于参数更新和反向传播,量化值用于前向计算。训练完成之后只需要保留量化值即可。整体算法的伪代码如图:

CLIP-Q:先剪枝后量化的压缩框架

超参数预测

算法中的超参数有p,b两个,文中采用贝叶斯优化方法确定最优参数θi=(pi,bi)

minθϵ(θ)λci(θ)

对于第i层,ϵ(θ)为Top1误差,ci(θ)表示压缩效果,经由:

ci(θ)=(misi(θ))/imi

计算得来。其中mii层需要以非压缩形式存储的权重所需的比特数,si(θ)是使用稀疏编码方案在使用θ进行剪枝量化之后来存储所需的比特数。后面使用高斯过程进行建模,有些复杂,不再进行讲解。

总结

其实这个方法很容易想到,最大的创新我觉得也是他超参数的自动设置了。由于每个mini-batch之后继续更新,所以是一种不固定的量化剪枝,因而给定的b,p参数也随着网络不断更新。结果在GoogLeNet 上有10x压缩,ResNet-50有15x,还是不错的。但实际上真的需要用超参数的自动设置吗?从目前自己的实验上来看感觉也没有那么重要,损失可能也就在1%以内。

相关文章:

  • 2021-12-25
  • 2021-12-01
  • 2021-07-06
  • 2021-08-13
  • 2023-03-13
  • 2022-12-23
  • 2022-01-05
猜你喜欢
  • 2021-06-28
  • 2021-07-09
  • 2022-01-06
  • 2021-10-24
  • 2023-02-22
  • 2022-12-23
相关资源
相似解决方案