BP推导

符号
xij:第j行数据,第i个神经元输入

wijl:第l层的第i个神经元的到第l+1层的第j个神经元的权重

bl:第l层的偏置bias

zil:第l层第i个神经元的的输入

ail:第I层第i个神经元的输出

σ():**函数

δil:第I层第i个神经元的的误差

推导

向前传播

第一层

a1(1)=x1j

a2(1)=x2j

第二层

z1(2)=a1(1)w1(1)+a2(1)w3(1)+b1=x1jw1(1)+x2jw3(1)+b1

z2(2)=a1(1)w2(1)+a2(1)w4(1)+b1=x1jw2(1)+x2jw4(1)+b1

a1(2)=σ(z1(2))=σ(x1jw1(1)+x2jw3(1)+b1)

a2(2)=σ(z2(2))=σ(x1jw2(1)+x2jw4(1)+b1)

第三层

z1(3)=a1(2)w1(2)+a2(2)w3(2)+b2=σ(x1jw1(1)+x2jw3(1)+b1)w1(2)+σ(x1jw2(1)+x2jw4(1)+b1)w3(2)+b2

z2(3)=a1(2)w2(2)+a2(2)w4(2)+b2=σ(x1jw1(1)+x2jw3(1)+b1)w2(2)+σ(x1jw2(1)+x2jw4(1)+b1)w4(2)+b2

a1(3)=σ(z1(3))=σ(σ(x1jw1(1)+x2jw3(1)+b1)w1(2)+σ(x1jw2(1)+x2jw4(1)+b1)w3(2)+b2)

a2(3)=σ(z2(3))=σ(σ(x1jw1(1)+x2jw3(1)+b1)w2(2)+σ(x1jw2(1)+x2jw4(1)+b1)w4(2)+b2)

反向传播

对每一层的残差求导,求梯度,更新权重。

w=w-\alpha {{\partial E}\over \partial w}

对第三层-第二层权重更新

Etoatal=E1(3)+E2(3)=12(ya1(3))2+12(ya2(3))2=12(y[σ(z13)]])2+12(y[σ(z2(3))])2

w12取值更新,也就是先对w12求导,通过链式法则得到

Etotalw1(2)=[12(ya1(3))2+12(ya2(3))2]a1(3)[σ(z1(3))]z1(3)(a1(2)w1(2)+a2(2)w3(2)+b2)w1(2)

=(a1(3)y)σ(z1(3))a1(2)

对第二层-第一层权重更新

Etotalw1(1)=Etotala1(2)σ(z1(2))z1(2)(a1(1)w1(1)+a2(1)w3(1)+b1)w1(1)

Etotala1(2)=E1(3)a1(2)+E1(3)a1(2)=[12(ya1(3))2]a1(3)[σ(z1(3))]z1(3)(a1(2)w1(2)+a2(2)w3(2)+b2)a1(2)+[12(ya2(3))2]a2(3)[σ(z2(3))]z2(3)(a1(2)w2(2)+a2(2)w4(2)+b2)a1(2)

=(a1(3)y)σ(z1(3))w1(2)+(a2(3)y)σ(z2(3))w2(2)

Etotalw1(1)=Etotala1(2)σ(z1(2))z1(2)(a1(1)w1(1)+a2(1)w3(1)+b1)w1(1)

=[(a1(3)y)σ(z1(3))w1(2)+(a2(3)y)σ(z2(3))w2(2)]σ(z1(2))a1(1)

相关文章:

  • 2021-09-07
  • 2021-05-26
  • 2021-04-14
  • 2021-12-13
  • 2021-08-11
  • 2022-12-23
  • 2021-04-29
  • 2021-08-31
猜你喜欢
  • 2021-04-03
  • 2022-01-06
  • 2021-10-07
  • 2022-03-08
  • 2021-07-27
相关资源
相似解决方案