CS224N lecture03-04

lecture3、4主要介绍了神经网络组成、如何被训练、反向传播等.

CS224N lecture03-04

梯度基础

标量对向量求导

f(x)=f(x1,x2,...xn)f(x) = f(x_1, x_2, ... x_n) 那么令 f(x) 对输入向量求导fx=[fx1,fx2,...fxn]\frac{\partial f}{\partial x}=[\frac{\partial f}{\partial x_1},\frac{\partial f}{\partial x_2},...\frac{\partial f}{\partial x_n}]

向量对向量求导

给定 Z = WX,求zx\frac{\partial z}{\partial x} , 其中 WRn×mW \in R^{n \times m}

由于zi=jmWijxjz_i = \sum_j^m{W_{ij}x_j}

所以:
(zx)ij=zixj=xkmWikxk=Wij (\frac{\partial z}{\partial x})_{ij} = \frac{\partial z_i}{\partial x_j} = \frac{\partial }{\partial x} \sum_k^m{W_{ik}x_k} = W_{ij}
进而可以拓展为 zx=Wxx=W\frac{\partial z}{\partial x} =\frac{\partial Wx}{\partial x} = W

神经网络

神经网络是受到生物神经元的启发而构建的模型,所以也称之为人工神经网络, 神经网络基础知识这里就不再赘述

反向传播

在更新神经网络模型中的参数之后,我们需要知道模型参数的梯度:
θ(t+1)=θ(t)αθ(t)J \theta^{(t+1)} = \theta^{(t)} - \alpha \nabla_{\theta ^{(t)}} J 反向传播是一种利用微分链式法则来计算模型上任意参数的损失梯度的方法.利用链式法则通过下一层的误差梯度进而推出上一层的误差梯度.
[downstreamgradient]=[upstreamgradient][localgradient] [downstream \, gradient] = [upstream \, gradient] * [local \, gradient]
CS224N lecture03-04
现在来计算误差从第 k 层传递到第 k - 1 层.

其中:

  • δi(k)\delta_i^{(k)} 为第 K 层第 i 个神经元输入处的误差,即在 zikz_i^{k} 出计算得出的反向传播误差
  • δi(k)\delta_i^{(k)} 与路径上的权重 Wijk1W_{ij}^{k-1} 相乘,即将误差传播到上层神经元的输出位置 aj(k1)a_j^{(k-1)},所以在该位置的接受的误差为 δi(k)Wijk1\delta_i^{(k)} W_{ij}^{k-1} ,其值代表着它对最终误差结果的产生影响大小
  • aj(k1)a_j^{(k-1)} 位置的神经元会参与下一层多个神经元计算,那么将会有多个下一层的神经元将误差反向传播过来所以要进行求和即iδi(k)Wijk1\sum_i\delta_i^{(k)} W_{ij}^{k-1}
  • 现在得到了aj(k1)a_j^{(k-1)} 位置处的误差,那么与其局部梯度相乘f(zjk1)f'(z_j^{k-1}) 将误差传递至zik1z_i^{k-1}处即f(zjk1)iδi(k)Wijk1f'(z_j^{k-1})\sum_i\delta_i^{(k)} W_{ij}^{k-1}

以向量话的方式可以表示为δ(k)=f(zk1)(Wk)Tδ(k+1)\delta^{(k)} = f'(z^{k-1})\circ(W^k)^T\delta^{(k+1)} 其中 \circ 代表着RN×RNRNR^N \times R^N \to R^N

对于路径权重 WijkW^k_{ij} ,其误差梯度为 δi(k+1)ajk\delta_i^{(k+1)} a_j^{k} 对于 $\nabla W^{k} =\delta^{k+1} {a{(k)T}} $

我们从最后面一层层的往前传递,当计算第 k 层时候只用使用第 k + 1 层的梯度进行相乘即可得到,而不用重新从损失函数处进行计算,避免了重复计算.

Gradient Check 梯度检查

反向传播是基于微分的方式进行误差梯度计算与更新,而梯度检查是采用数值近似的方式计算每个参数的梯度.针对模型中的参数θ\theta 和损失函数J我们可已使用以下公式计算梯度:
f(θ)=J(θi+h)+J(θih)2h f'(\theta) = \frac{J(\theta^{i+h}) + J(\theta^{i-h})}{2h}
其中 h 非常小一般取1e51e^{-5} 左右,这里对参数的两个方向都进行参数的扰动,从而更好的逼近一个参数当前的斜率.

梯度检查可以比较准确的估计任何参数的导数,但是对每个神经元都采用这种方式进行更新参数的话,计算量过大,因为每一个参数的梯度都要进行两次反向传播,所以无法应用该方法进行参数的更新,只用作梯度检查.

不过现在也无需进行梯度检查了,因为使用框架 tensoflow pytorch 等人家帮你计算梯度,基本不会出错.

正则化

机器学习算法很容易过拟合,即对输入微小改变会产生输出较大的差异,这意味训练出来的机器学习模型在训练集上表现的非常好,但是在测试集上表现的很差,泛化能力差. 一个解决的方法是引入正则化.
JR=J+λi=1LW(i)F J_R = J + \lambda \sum_{i=1}^{L}{|| W^{(i)}||_F}
其中 λ\lambda 为超参数惩罚系数,控制着正则项的权重大小. 引入正则项可以有效降低模型的灵活性,因此减少过拟合的可能性. λ\lambda 值太大会让很参数都接近于0,那么参数就很难在数据集上学习到有意义的东西,这将导致在测试集和训练集上表现的都很差,而λ\lambda 值太小会让模型出现过拟合现象.
使用正则项也可以采用L1,但是其会将让全职参数变得稀疏.

Dropout

Dropout 也是一种解决过拟合十分有效的方法,他是说在训练过程中,每次前向传播以及反向传播时以一定概率(1-p)让一些神经元 drop 即关闭,不进行传播,保证概率为p的神经元是**的可以传播.实现时就是每个神经元有 p 的概率是被**的,1-p的概率是关闭的输出为 0 . 在反向传播的时候我们只对前向传播中活着的结点及进行参数更新.在测试过程中,不在进行 dropout ,即全部的神经元都是**的.

Dropout 非常有效,其可以让模型学习到更多的信息,直观上可以理解为 dropout 训练了多个小网络,并且对他们的输出结果进行平均.
CS224N lecture03-04

**函数

这里不再多做解释.
CS224N lecture03-04
CS224N lecture03-04

数据预处理

数据预处理对机器学习模型十分常见以及关键的步骤.

Mean Substraction

其目的在与通过让数据特征向量值减去平均值,从而使其0中心化. 注意平均值是从训练集上计算得来,并在训练集、验证集、测试集减去同一平均值.

Normalization

标准化,将每个特征向量维度具有相同的规模,以方便训练.

Whitening

白化是说将数据转化后特征之间相关性低,协方差阵为1.其通过利用SVD方法进行处理.

参数初始化

  • 通常将权重初始化为较小的随机值

    这是为了能让**函数在有效的范围内,让梯度可以更新呢

  • 初始化隐藏层 bias 为 0

  • 初始化所有其它权重为 Uniform(-r, r) r 的值很小

  • Xavier初始化,方差与前一层和后一层的尺寸成反比Var(Wi)=2nin+noutVar(W_i) = \frac{2}{n_{in} + n_{out}}

学习率

以一个简单的梯度下降公式为例子:
θnew=θoldαJt(θ) \theta ^{new} = \theta^{old} - \alpha \nabla J_t(\theta)
其中 a 为学习率, 训练过程中模型更新的速度受学习率值大小的影响.

  • a 的值过大,那么尽管学习率很快,模型参数更新的幅度很大,但是并无法保证模型收敛,其可能在最小值左右来回振荡.
  • a 的值过小,可以保证模型的收敛,但是这让模型更新幅度小,学习慢,在有限的学习步数下不一定能够收敛.

一种合理解决方法是学习率随着迭代次数的增加而降低,这可以让模型以一个较大的学习率开始,迅速的向最小值靠近,然后降低学习率让其收敛.

参考资料

  • a 的值过小,可以保证模型的收敛,但是这让模型更新幅度小,学习慢,在有限的学习步数下不一定能够收敛.

一种合理解决方法是学习率随着迭代次数的增加而降低,这可以让模型以一个较大的学习率开始,迅速的向最小值靠近,然后降低学习率让其收敛.

参考资料

  1. Word Window Classification,Neural Networks, and Matrix Calculus)

相关文章:

  • 2021-06-01
  • 2021-07-08
  • 2021-10-18
  • 2021-11-16
  • 2022-01-03
  • 2022-01-01
  • 2021-11-23
  • 2021-08-04
猜你喜欢
  • 2021-06-23
  • 2021-12-20
  • 2021-08-17
  • 2021-05-09
  • 2021-09-25
  • 2021-06-28
  • 2021-11-01
相关资源
相似解决方案