1 **函数

1.1 sigmoid

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)

1.2 tanh

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
优缺点:
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
引入更简单更高效的函数:

1.3 ReLU函数

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
softplus导数正好为sigmoid。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)

1.4 ReLU函数的变种

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)

2 Dropout

2.1 原理

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
最后一种方法太耗时。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
去掉神经元的同时,输入输出也要去掉。-》得到一个子网络。
训练的时候都会在神经网路中抽样。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
r1,r2,r3 取0 or 1.
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
Dropout可以与其他方法混合使用。

2.2 实验

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
用dorpout之后,units(参数量)明显增大。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
+L2正则以此类推。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
CNN草图:真草图!
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
在CNN和max pooling基础上,在全连接层加入dropout后效果更佳。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
在6层神经网路上加入dropout,同理。

2.3 作者重点分析的一些特点

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
学习到更通用的特征。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
大量的神经元都没有被**,位于0周围。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
左图过拟合。右图控制期望神经元数量(左图控制神经元数量)。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)
这张图说明dropout的权值缩放效果很好。

相关文章:

  • 2021-09-24
  • 2021-11-17
  • 2022-12-23
  • 2021-10-29
  • 2022-01-15
  • 2021-12-18
  • 2021-12-13
猜你喜欢
  • 2021-10-25
  • 2021-04-26
  • 2021-05-29
  • 2021-09-01
  • 2022-02-06
  • 2021-04-02
相关资源
相似解决方案