1. 简介

1998年,Yann LeCun在论文《Gradient-based learning applied to document recognition》提出LeNet-5,它是第一个成功应用于手写数字识别问题的卷积神经网络,在MNIST数据集上可达到99.2%的正确率。
DeepLearning-L4-LeNet5

2. 网络结构

DeepLearning-L4-LeNet5
Layer 1:卷积层

  • 输入:32×3232 \times 32(灰度图像28×2828 \times 28,周围用两个像素填充)
  • 卷积核:5×55 \times 5,深度66,步长11
  • 输出:28×28×628 \times 28 \times 6
  • 参数个数:5×5×1×6+6=1565 \times 5 \times 1 \times 6 + 6 =156,其中加项的66个为偏置项参数
  • 连接数:(55+1)×6×(2828)=122,304(5*5+1)\times 6 \times(28*28) =122,304

Layer 2:池化层

  • 输入:28×28×628 \times 28 \times 6
  • 池化核:平均池化,每个大小2×22 \times 2,步长22
  • 输出:14×14×614 \times 14 \times 6

Layer 3:卷积层

  • 输入:14×14×614 \times 14 \times 6
  • 卷积核:5×55 \times 5,深度1616,步长11
  • 输出:10×10×1610 \times 10 \times 16
  • 参数个数:5×5×6×16+16=24165 \times 5 \times 6 \times 16 + 16 = 2416
  • 连接数:(55+1)×16×(2828)=41600(5*5+1)\times 16 \times(28*28) = 41600

Layer 4:池化层

  • 输入:10×10×1610 \times 10 \times 16
  • 池化核:平均池化,每个大小2×22 \times 2,步长22
  • 输出:5×5×165 \times 5 \times 16

Layer 5:全连接层

  • 输入:400400
  • 输出:120120
  • 参数个数:400×120+120=48120400 \times 120 + 120 =48120

Layer 6:全连接层

  • 输入:120120
  • 输出:8484
  • 参数个数:120×84+84=10164120 \times 84 + 84 = 10164

Layer 7:全连接层

  • 输入:8484
  • 输出:1010
  • 参数个数:84×10+84=85084 \times 10 + 84 = 850

网络中的权重个数:

  • Conv15×5×1×6+6=1565 \times 5 \times 1 \times 6 + 6 =156
  • Conv25×5×6×16+16=24165 \times 5 \times 6 \times 16 + 16 = 2416
  • FC1400×120+120=48120400 \times 120 + 120 =48120
  • FC2120×84+84=10164120 \times 84 + 84 = 10164
  • FC384×10+84=85084 \times 10 + 84 = 850

总计6170661706

相关文章: