1.写在前面
部分资料参考了他人文章,截图来自一个大佬的PPT。
2.神经元
全连接层由若干神经元构成。
神经元可以看做一个用于运算的节点。
神经元的简单示意图,如下图所示。
有多个输入x1、x2、x3,
每个输入所占权重分别为w1、w2、w3,
输入乘以权重之后求和,得到x1w1+x2w2+x3w3。
这里有一个叫做“偏置”的概念,我也不是很理解,此处偏置为-1。
之前得到的结果加上偏置,得到x1w1+x2w2+x3w3-1。
将我们得到的结果,放入激励函数f(x),
得到纾解结果y=f(x1w1+x2w2+x3*w3-1)
3.全连接层
全连接层有神经元构成。
全连接层的每一个神经元都和上一层的所有神经元连接。
示意图,如下图所示。
4.卷积层
卷积层是卷积神经网络(简称CNN)中独特的网络结构。
卷积层实际上就是,一个“滑动窗口”在特征图上进行滑动并进行计算。
举一个例子,如下图所示。
有一个特征图5x5,卷积核3x3。
特征图中的数字分布和卷积核中的数字分布,只是一个例子。
卷积核从特征图的左上角开始,运算一次滑动一次,运算一次滑动一次。
每次左移一列,到达边界后下移一行,
每次进行的运算是,卷积核覆盖位置(一个3x3的区域)与卷积核(3x3)中相对应的数字,相乘(得到9个数字)再求和(得到1个数字)。
最终,一个5x5的特征图卷积之后,输出一个3x3的矩阵。
4.1.卷积的特性
两个特性,1.局部感知,2.权值共享。
局部感知指的是,卷积核每次覆盖并进行运算的,是一个局部区域。
权值共享指的是,卷积核进行的运算是先乘后求和。在相乘的时候,卷积核的9个格子(在章节4,我们的例子中,卷积核3x3)中的数字相当于权重。而在整个滑动中使用的是同一个卷积核,换言之,使用的是同一组权重,这就是共享。所以称为权值不变。
4.2.卷积的目的
进行图像的特征提取。
5.池化层
有人把下采用层叫做池化层,其实不对,下采样层包含池化层。
5.1.池化目的
对特征图进行稀疏处理,减少运算量。
5.2. 实例
池化层有多种,其中一种叫maxpooling,以此为例子。
池化核大小2x2,什么意思呢?
就是把特征图分割成多个2x2区域
每个区域选择区域内最大值,得到结果。
如下图所示。
5.3.池化层特点
1.没有训练参数
在讲卷积核的时候,卷积核是有具体数字的矩阵。讲池化核的时候,池化核只起到分割的作用,没有具体数字。
2.只改变特征图的长和宽(或叫特征矩阵)