1.CNN总体架构

李宏毅深度学习笔记03---CNN 卷积神经网络

 

 

(1)convolution 卷积

李宏毅深度学习笔记03---CNN 卷积神经网络

计算方法:对应位置相乘,再将9个格子的乘积结果相加(內积)。

卷积神经网络与全连接的神经网络的区别:

李宏毅深度学习笔记03---CNN 卷积神经网络

 

将下图中的6*6的矩阵拉直成一个列向量,则下图中右边部分的4*4矩阵的第一个3是由部分值与filter的3*3矩阵內积而来

<1>卷积神经网络只连接部分的input,而全连接的神经网络则是连接所有的input

李宏毅深度学习笔记03---CNN 卷积神经网络

 

 

 

 

<2>权重w共享机制,下图中权重w就是3*3的filter矩阵

share weight

李宏毅深度学习笔记03---CNN 卷积神经网络

 

 

 

(2)Max Pooling 最大池化

利用不同的filter,可以得到不同的结果,下图对结果按4个划分,保留最大值(也可以保留平均值)后,最终会变成2*2的矩阵

李宏毅深度学习笔记03---CNN 卷积神经网络     李宏毅深度学习笔记03---CNN 卷积神经网络

CNN的整体过程:

李宏毅深度学习笔记03---CNN 卷积神经网络

 

(3)Flatten 

将各层的filter拉直成1*n的向量,输入到全连接的神经网络中。

李宏毅深度学习笔记03---CNN 卷积神经网络

 

李宏毅深度学习笔记03---CNN 卷积神经网络

李宏毅深度学习笔记03---CNN 卷积神经网络

 

相关文章: