线性回归

深度学习——2.传统神经网络


梯度下降

深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络

模型的输出

深度学习——2.传统神经网络
多个目标对应多个任务,对应多组权重,对应多个输出类别


线性回归的局限

深度学习——2.传统神经网络


非线性激励的考量标准

  • 正向:对输入的调整,[0,1] 或 [-1 , +1]
  • 反向:梯度损失大小

常用的非线性激励函数

Sigmoid

深度学习——2.传统神经网络深度学习——2.传统神经网络深度学习——2.传统神经网络


Tanh

深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络


ReLU(Rectified linear unit)

深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络


Leaky ReLU

深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络


面试题:有线性回归网络么?

深度学习——2.传统神经网络
没有,如上所示,如果不通过非线性**函数,每层都是一个线性回归,递归计算导致最终多层的权重可以用单层的权重来表示,最终为结果只相当于一个线性回归。


神经网络的构成

深度学习——2.传统神经网络
通过链式法则进行前向、反向传播
深度学习——2.传统神经网络


神经网络的“配件”

深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络
深度学习——2.传统神经网络

面试题: 用动量和直接调大学习率有什么区别?

动量是根据之前的方向进行方向微调,而调大学习率是沿着方向大步走。

深度学习——2.传统神经网络
深度学习——2.传统神经网络
参数越多,越能处理更多的输入情况,即对输入有更高的适应性。
深度学习——2.传统神经网络

面试题:什么叫weight decay,与regularization有何联系?

权重衰减,等同于正则化,为了loss的导数尽可能小,即要求w尽量平衡。

深度学习——2.传统神经网络
dropout使权重平均,让每层随机选择其中几个神经元失活仍可以达到同样效果。

面试题:Dropout,Pooling的区别

pooling的本质是降维;dropout的本质是正则化,使权重分布更均衡。
深度学习——2.传统神经网络

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2021-07-23
  • 2021-08-10
  • 2021-12-09
  • 2021-04-03
  • 2021-10-12
  • 2022-12-23
猜你喜欢
  • 2021-10-07
  • 2022-01-01
  • 2021-08-20
  • 2021-06-03
  • 2021-04-27
  • 2021-06-08
  • 2021-06-26
相关资源
相似解决方案