徒手实现CNN:综述论文详解卷积网络的数学本质


Abstract

对卷积网络的数学本质和过程仍然不是太清楚,这也就是本论文的目的。

  • 我们使用灰度图作为输入信息图像,
  • ReLU 和 Sigmoid **函数构建卷积网络的非线性属性,
  • 交叉熵损失函数用于计算预测值与真实值之间的距离。

1 Introduction


2 Architecture

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.1 卷积层

reference
* [CNN学习笔记]http://blog.csdn.net/u010067397/article/details/78881614

  • 卷积层是一组平行的特征图(feature map),它通过在输入图像上滑动不同的卷积核并执行一定的运算而组成。
  • 一张特征图中的所有元素都是通过一个卷积核计算得出的,也即一张特征图共享了相同的权重和偏置项。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.2 **函数

  • **函数定义了给定一组输入后神经元的输出。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.3 池化层

reference
深度学习笔记5:池化层的实现

  • 池化层是指下采样层,它把前层神经元的一个集群的输出与下层单个神经元相结合。
  • 池化层有助于减少参数的数量并避免过拟合。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.4 全连接层

2.5 损失函数

  • 损失函数用于测量模型性能以及实际值 y_i 和预测值 y hat 之间的不一致性。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.1 均方误差

  • MSE 不好的地方在于,当它和 Sigmoid **函数一起出现时,可能会出现学习速度缓慢(收敛变慢)的情况。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.2 Mean Squared Logarithmic Error

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.3 L2 Loss function

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.4 L1 Loss function

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.5 Mean Absolute Error

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

2.5.6 Mean Absolute Percentage Error

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

  • 缺点: 对于类标为0的点不能用。

2.5.7 交叉熵

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记


3 卷积网络的学习

3.1 前馈推断过程

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

  • 卷积网络的前馈传播过程可以从数学上解释为将输入值与随机初始化的权重相乘,然后每个神经元再加上一个初始偏置项,最后对所有神经元的所有乘积求和以馈送到**函数中,**函数对输入值进行非线性变换并输出**结果。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

I 为图像, K为卷积核。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

3.2 反馈过程

reference
神经网络之梯度下降与反向传播(上)
神经网络之梯度下降与反向传播(下)

一下推导都是0-1预测

  • 在反馈的过程中,损失函数的梯度计算:最后一层的首先计算,第一层的最后计算。
  • 一个层的偏导数在计算另一个层的时由于链式法则会被重用,这使得计算梯度在每一层更加有效。
  • 模型的表现随着Loss的减小而变得更好。

在反馈的过程中,我们需要更新 W, b,K这些参数。

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

对最后一层偏导数,也就是输出求导

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

对 W 求导

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记

Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记


4 Conclusion

  • 我们介绍了CNN结构, 包括各种**函数,损失函数。
  • 一步一步解释前馈和反馈过程。
  • 为了数学公式的方便,我们使用灰度图、卷积核步长设置为1,补边为0,使用非线性形式在中间层,最后一层使用ReLU和sigmoid**函数。
  • 使用交叉熵评估模型。
  • 大量优化和正则方式最小化损失,增加学习率或者避免过拟合
  • 本文尝试使用数学角度解释CNN。

相关文章:

  • 2021-11-15
  • 2021-09-13
  • 2021-06-26
  • 2021-06-10
  • 2021-04-05
  • 2021-07-02
  • 2021-05-14
猜你喜欢
  • 2021-05-18
  • 2021-05-12
  • 2021-07-22
  • 2021-04-27
  • 2021-12-08
  • 2022-12-23
  • 2021-05-22
相关资源
相似解决方案