神经网络的学习(训练)

"神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应" [Kohonen, 1988]

深度学习之学习笔记(五)—— 神经网络的学习(训练)

 

回顾神经元模型

深度学习之学习笔记(五)—— 神经网络的学习(训练)

根据第三章介绍的M-P神经元模型,我们有

深度学习之学习笔记(五)—— 神经网络的学习(训练)

深度学习之学习笔记(五)—— 神经网络的学习(训练)

其中,深度学习之学习笔记(五)—— 神经网络的学习(训练) 为**函数。

 

神经网络的学习(训练)过程深度学习之学习笔记(五)—— 神经网络的学习(训练)


神经网络的学习(训练)过程就是找到一个合适函数的过程,对下面具体的数学公式来说,就是找到一组合适的权重,使得样本的输出与预期的结果接近,最好是完全一样:

深度学习之学习笔记(五)—— 神经网络的学习(训练)

权重为深度学习之学习笔记(五)—— 神经网络的学习(训练), 其中,深度学习之学习笔记(五)—— 神经网络的学习(训练)  


一层神经网络的训练过程如下图所示:

深度学习之学习笔记(五)—— 神经网络的学习(训练)

其中深度学习之学习笔记(五)—— 神经网络的学习(训练)表示一组输入的特征向量(样本),深度学习之学习笔记(五)—— 神经网络的学习(训练) 表示一组权重向量,表示如下:

深度学习之学习笔记(五)—— 神经网络的学习(训练)

深度学习之学习笔记(五)—— 神经网络的学习(训练)

 

训练步骤具体如图所示:


  1. 随意(一般采用随机方式)初始化一组权重 深度学习之学习笔记(五)—— 神经网络的学习(训练) (其中包含偏置深度学习之学习笔记(五)—— 神经网络的学习(训练)
  2. 根据一组输入数据特征 深度学习之学习笔记(五)—— 神经网络的学习(训练)样本)、权重 深度学习之学习笔记(五)—— 神经网络的学习(训练)**函数深度学习之学习笔记(五)—— 神经网络的学习(训练),计算输出深度学习之学习笔记(五)—— 神经网络的学习(训练),其中深度学习之学习笔记(五)—— 神经网络的学习(训练)
  3. 根据输出深度学习之学习笔记(五)—— 神经网络的学习(训练),以及样本预期值深度学习之学习笔记(五)—— 神经网络的学习(训练)(标签),计算深度学习之学习笔记(五)—— 神经网络的学习(训练)的调整值 深度学习之学习笔记(五)—— 神经网络的学习(训练)深度学习之学习笔记(五)—— 神经网络的学习(训练)
  4. 根据上一步计算出来的调整值 深度学习之学习笔记(五)—— 神经网络的学习(训练)调整 深度学习之学习笔记(五)—— 神经网络的学习(训练) :深度学习之学习笔记(五)—— 神经网络的学习(训练)
  5. 对一组样本反复迭代执行步骤(1)-(4),直到得到一组满意的权重深度学习之学习笔记(五)—— 神经网络的学习(训练)为止

上面步骤(3)中的深度学习之学习笔记(五)—— 神经网络的学习(训练),是指学习率,取值范围在(0,1)之间。学习率的具体含义我们在第六章《梯度下降法》中解释。

另外,在步骤(3)中,我们计算深度学习之学习笔记(五)—— 神经网络的学习(训练)的调整值时,用的方法是直接计算预期值与输出值的差:深度学习之学习笔记(五)—— 神经网络的学习(训练),这是很朴素的方法。一般在神经网络的训练中,我们会采用更为复杂的损失函数来计算这个调整值。关于损失函数的具体内容我们在第五章《损失函数》中讲解。在这里,大家请牢记这个训练步骤就行,这是通用的。

如果是多层神经网络,就将上一层的输出作为下一层的输入,依次迭代,直到达到输出层,如下图所示:

深度学习之学习笔记(五)—— 神经网络的学习(训练)

 

输出层的设计

对于最后一层输出层,跟其他层的设计不太一样。输出层所用的**函数,要根据求解问题的性质决定。一般地:

  • 回归问题可以使用恒等函数
  • 二元分类问题可以使用 sigmoid函数
  • 多元分类问题可以使用 softmax函数

机器学习的问题大致可以分为分类问题和回归问题。分类问题是数据属于哪一个类别的问题。比如,区分图像中的人是男性还是女性的问题就是分类问题。而回归问题是根据某个输入预测一个(连续的)数值的问题。比如,根据一个人的图像预测这个人的体重的问题就是回归问题(类似“57.4kg”这样的预测)

 

关于恒等函数、Sigmoid函数和Softmax函数这些**函数,我们在下一章详细介绍。

 

References:

简书:DL01-2:感知器训练的数学基础, 杨强AT南京

 

相关文章:

  • 2021-12-16
  • 2021-07-08
  • 2021-04-06
  • 2021-12-21
  • 2021-07-21
  • 2021-05-21
  • 2021-07-23
  • 2021-08-27
猜你喜欢
  • 2021-07-09
  • 2021-10-24
  • 2021-10-22
  • 2021-12-04
  • 2021-08-31
  • 2021-09-11
相关资源
相似解决方案