本章节讲解 参数更新 dropout

=========================================================================================

上节内容回顾与总结:

  模型过程:

CS231n 2016 通关 第六章 Training NN Part2

  激活函数:注意理解各个函数的优缺点

CS231n 2016 通关 第六章 Training NN Part2

  数据预处理:

CS231n 2016 通关 第六章 Training NN Part2

  权重参数初始化:Xavier方法,使用较多。

CS231n 2016 通关 第六章 Training NN Part2

  batch normalization :

  CS231n 2016 通关 第六章 Training NN Part2

  cross validation :比较loss 结果,选择合适学习率

CS231n 2016 通关 第六章 Training NN Part2

=========================================================================================

  本章知识点:

CS231n 2016 通关 第六章 Training NN Part2

=========================================================================================

Parameter Update :

  训练NN的代码结构:

CS231n 2016 通关 第六章 Training NN Part2

  最后一行即为参数更新。

  sgd的轨迹: 

CS231n 2016 通关 第六章 Training NN Part2

  因为minibatch的原因,在波动中收敛。

  Momentum update

  CS231n 2016 通关 第六章 Training NN Part2

  加入了动量,加速收敛。

  SGD vs Momentum

CS231n 2016 通关 第六章 Training NN Part2

  Momentum 直观解释:

CS231n 2016 通关 第六章 Training NN Part2

  Nesterov Momentum

CS231n 2016 通关 第六章 Training NN Part2

  更新公式比较:

CS231n 2016 通关 第六章 Training NN Part2

  AdaGrad update : 前两种是在更新方式上的算法,接着总结学习率更新的算法

    自适应梯度,根据误差项来调整学习率。  

CS231n 2016 通关 第六章 Training NN Part2

  显然,在误差较大时学习率低,当误差减小时,学习率升高。

  RMSProp update :

CS231n 2016 通关 第六章 Training NN Part2

  Adam update :


  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  Learning rate :

CS231n 2016 通关 第六章 Training NN Part2

  可以使用开始时较大的学习率,之后逐步衰减的方法。

  第二种优化方法:

  损失函数泰勒展开: 

CS231n 2016 通关 第六章 Training NN Part2

    这种方法,不需要超参数,学习率等。但是不实用,因为需要计算H-1,即海森矩阵。其比较庞大。

  拟牛顿法:

  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  实际应用:

CS231n 2016 通关 第六章 Training NN Part2

=========================================================================================

model ensemble :在测试的时候,使用多个模型,对结果做平均值。

  CS231n 2016 通关 第六章 Training NN Part2

一些技巧: 

CS231n 2016 通关 第六章 Training NN Part2

=========================================================================================

Dropout :

  示意图:

CS231n 2016 通关 第六章 Training NN Part2

  代码结构:

CS231n 2016 通关 第六章 Training NN Part2

  模型实例:

    CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  测试阶段:没有dropout

CS231n 2016 通关 第六章 Training NN Part2

  在training 阶段做出一些调整:

CS231n 2016 通关 第六章 Training NN Part2

  修改后:

CS231n 2016 通关 第六章 Training NN Part2

  两种方式:

CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

=========================================================================================

 CNN 发展过程

    CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  视觉系统是由简单结构到复杂结构,信号的抽象过程。

  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  拟生视觉网络。

  现阶段:分类、复原、识别应用广。

  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

  CS231n 2016 通关 第六章 Training NN Part2CS231n 2016 通关 第六章 Training NN Part2

附:通关CS231n企鹅群:578975100 validation:DL-CS231n 

相关文章:

  • 2021-10-03
  • 2021-05-19
  • 2021-06-15
  • 2022-12-23
  • 2021-07-14
  • 2021-08-28
  • 2021-06-22
猜你喜欢
  • 2022-02-04
  • 2021-08-19
  • 2022-01-25
  • 2021-07-09
  • 2021-07-02
  • 2022-01-13
  • 2021-11-22
相关资源
相似解决方案