深度学习——Pooling Layer

简介

  • Pooling Layer正常是用于Convolution Layer后面,可以进一步提取有效特征,降低nW,nHn_W,n_H维度,减少计算量。Pooling 层和Convolution层一样具有stride(d)fpad(p)stride(d)、f、pad(p)参数。
  • Pooling Layer主要有两种:1)Max Pooling、2)Average Pooling,如下图(1)
  • nHl=nHl1+2pfs+1,nWl=nWl1+2pfs+1,nCl=nCl1(1)n_H^l=\lfloor \frac{n_H^{l-1}+2*p-f}{s}+1\rfloor,n_W^l=\lfloor \frac{n_W^{l-1}+2*p-f}{s}+1\rfloor,n_C^{l}=n_C^{l-1} \qquad(1)
    深度学习——Pooling Layer
    figure(1)figure(1)

1、Max Pooling

forwardpropagation

  • Max Pooling如上图(1)所示,对输入数据每一通道在f*f 的slice范围内的数取最大值形成新的矩阵,最后每一通的矩阵concat在一起,维度变为公式(1)。f=2,stride=2f =2,stride =2
    a(nh,nw,c)l=max(a(nhstride:nhstride+f,nwstride:nwstride+f,c)l1)(2)a_{(nh,nw,c)}^l=max(a^{l-1}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)})\qquad(2)

backpropagation

  • 由前向传播可以知道,梯度只要最大值才有,只有最大值才需更新。
    mask=(a(nhstride:nhstride+f,nwstride:nwstride+f,c)l1==max)//10(3)mask = (a^{l-1}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)}==max)//等于最大值的位置变为1,其他为0 \qquad(3)
    dA(nhstride:nhstride+f,nwstride:nwstride+f,c)l1+=maskdA(nw,nh,nc)l(4)dA^{l-1}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)} +=mask*dA^l_{(nw,nh,nc)}(4)

2、Average Pooling

forwardpropagation

  • Average Pooling如上图(1)所示,对输入数据每一通道在f*f 的slice范围内的数计算平均值形成新的矩阵,最后每一通的矩阵concat在一起,维度变为公式(1)。f=2,stride=2f =2,stride =2
    a(nh,nw,c)l=np.sum(a(nhstride:nhstride+f,nwstride:nwstride+f,c)l1)ff(5)a_{(nh,nw,c)}^l=\frac{np.sum(a^{l-1}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)})}{f*f}\qquad(5)

backpropagation

  • 由前向传播可以知道,梯度只要最大值才有,只有最大值才需更新。
    dAverage(nhstride:nhstride+f,nwstride:nwstride+f,c)l=np.sum(dAverage(nhstride:nhstride+f,nwstride:nwstride+f,c)l1)ffdAverage^{l}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)}=\frac{np.sum(dAverage^{l-1}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)})}{f*f}
    dA((nhstride:nhstride+f,nwstride:nwstride+f,c)l1+=dAverage(nhstride:nhstride+f,nwstride:nwstride+f,c)l(4)dA^{l-1}_{((nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)} += dAverage^{l}_{(nh*stride:nh*stride+f,nw*stride:nw*stride+f,c)} (4)

相关文章: