局部相关性和权值共享:
局部相关性:
目的:为了避免全连接网络的参数集过大的缺点。
以图片为例,对于2D图片通常在进入全连接层之前将矩阵数据打平成1D向量,然后每个像素点与每个输出节点两两相连。网络层中,每个输出节点都与所有的输入节点相连,这种稠密的(Dense)连接方式使得全连接层的参数量大,计算代价高,全连接层也叫做稠密层(Dense Layer),当全连接层的**函数为空时,全连接层也叫做线性层(Linear Layer)。
其中表示层节点集合。
其实,对于图片而言只要选出最重要的一部分输入节点,抛弃重要性较低的节点,这样输出节点只需要与重要的一部分输入节点相连接:
其中表示层中对于层中号节点重要性最高的前个节点的集合。通过这种方式可以把全连接层的个权值减少到前 个,其中 分别表示$I,J $ 层的节点数量。
所以主要问题就是探索层输入节点对于号输出节点的重要性分布。通常可以利用先验知识将问题简化。
二维平面通常将位置平面作为重要性分布衡量标准的依据,距离越近,重要性越大,影响越大;距离越远,重要性越小。所以2D图片为例,如果距离当前像素点距离小于等于 的像素点重要性更高,距离以外重要性低。如图所示,实心网络所在区域为参考,距离当前像素点距离小于等于 的像素点用矩形网格表示,网格内的像素点的重要性更高,所以这个高宽为 的串窗口叫做感受野(Receptive field),他表征了每个像素点杜宇中心像素的重要性分布,网格内的像素才会被考虑到,网格外会被简单的忽略。
这种基于距离的重要性分布假设佳作局部相关性,只需要关注和自己距离较近的部分节点,忽略较远的节点。利用局部相关性,将感受野窗口的高,宽记为 (其实高和宽不一定相等),当前位置的节点与大小为 的窗口内的像素相连接,与窗口外的像素点无关。此时输入输出的表达式为
其中,表示节点 之间的欧氏距离。
权值共享:
点 之间的欧氏距离。
权值共享:
通过局部相关性减少了参数量,还可以通过权值共享使得参数量得到进一步的减小。权值共享就是对于输出节点 ,都使用相同的权值矩阵 。那么,无论输出节点的数量 ,网络层的参数量总是 。通过局部相关性和权值共享的思想就可以将网络参数量明显的减小(对于单输入通道,单卷积核的条件下。)这种拒不连接、共享权值的方法就是卷积神经网络。