卷积神经网络
1.卷积层(CONV)
特征图和原图的计算
原图:773
Filter的图333
步长1
结果(7-3)/1+1
公式:(原图高-Filter图高)/步长+1
长也是同样的方法
卷积函数
+pad1就是本来是55但是太小了不好卷积,就在外边加一层0
更好的利用便捷值
而且卷积后的特征图也是55
让输出的特征图不会越来越小
加完之后又用的值还是没加之前的值
如果加了一层0之后
输出特征图的计算公式
w-f+2pad)/s+1
输入图77
f图33
步长1
(7-3+21)/1+1=7
所以因为加了圈0,原图和输出图的大小一样了
f图和pad值设置的对应关系
当f图是33时,pad值是1
f图是55时,pad值是2
f图是77时,pad值是3
例:
input volume输入图:32323
有10个55 的filters
stride步长是1
pad增添层是2
输出图:
output volume size:(32+2*2-5)/1+1=32
spatially
所以结果为323210
2.池化层(Pooling layer)
池化操作的目的就是在卷积层给出的特征图上再次提取特征
输入就是输入的特征图
例:输入的特征图是22422464(64就是卷积层中f图及特征图的个数)
22422464 pool 11211264
下面两个例子都是f=2*2 s=2
a.池化层的计算方式——MAX POOLING(就是求一个区域的最大值)(比较常用)
例:特征图切片:Single depth slice =1
4*4
池化后
b.池化层的计算方式——AVG POOLING(求一个区域的平均值)
池化后
1+1+5+6)/4=3.25
2+4+7+8)/4=5.25
3+2+2+1)/4=2
1+0+3+4)/4=2
| 3.25 | 5.25 |
|---|---|
| 2 | 2 |