感知机

单层感知机

单层感知机模型:
y=XW+by=XW+b
y=xiwi+by=\sum x_{i}*w_{i}+b
深度学习与PyTorch笔记13
x0n0x^{0}_{0\sim n}上标0表示输入层,下标0~n表示第i个元素。wij1w^{1}_{ij}上标1表示第一层,下标i表示连接上一层的xi0x^{0}_{i}节点,下标j表示连接这一层的第j个节点。第一层的x01x^{1}_{0}经过**函数后变成O01O^{1}_{0}。单层感知机,第一层只有一个点。再经过loss函数((O01t)2\sum(O^{1}_{0}-t)^{2})。

单层感知机梯度推导

单层感知机输出误差:E=12(O01t)2E=\frac{1}{2}(O^{1}_{0}-t)^{2}
Ewj0=(O0t)O0wj0\frac{\partial E}{\partial w_{j0}}=(O_{0}-t)\frac{\partial O_{0}}{\partial w_{j0}}
Ewj0=(O0t)σ(x0)wj0\frac{\partial E}{\partial w_{j0}}=(O_{0}-t)\frac{\partial\sigma(x_{0})}{\partial w_{j0}}
Ewj0=(O0t)σ(x0)(1σ(x0))x01wj0\frac{\partial E}{\partial w_{j0}}=(O_{0}-t)\sigma(x_{0})(1-\sigma(x_{0}))\frac{\partial x^{1}_{0}}{\partial w_{j0}}
Ewj0=(O0t)O0(1O0)x01wj0\frac{\partial E}{\partial w_{j0}}=(O_{0}-t)O_{0}(1-O_{0})\frac{\partial x^{1}_{0}}{\partial w_{j0}}
Ewj0=(O0t)O0(1O0)xj0\frac{\partial E}{\partial w_{j0}}=(O_{0}-t)O_{0}(1-O_{0})x^{0}_{j}
导数和输出O0O_{0}和输入xj0x^{0}_{j}有关。
深度学习与PyTorch笔记13
w=wlrww^{'}=w-lr\nabla w不断更新权值,得到最优权值,使得xwx*w越来越趋近于真实的yy值。

多层感知机

深度学习与PyTorch笔记13

多层感知机梯度推导

多层感知机输出误差:E=12(Oi1ti)2E=\frac{1}{2}\sum(O^{1}_{i}-t_{i})^{2}
Ewjk=(Oktk)Okwjk\frac{\partial E}{\partial w_{jk}}=(O_{k}-t_{k})\frac{\partial O_{k}}{\partial w_{jk}}i不等于k时为无关项。
Ewjk=(Oktk)σ(xk)wjk\frac{\partial E}{\partial w_{jk}}=(O_{k}-t_{k})\frac{\partial\sigma(x_{k})}{\partial w_{jk}}
Ewjk=(Oktk)σ(xk)(1σ(xk))xk1wjk\frac{\partial E}{\partial w_{jk}}=(O_{k}-t_{k})\sigma(x_{k})(1-\sigma(x_{k}))\frac{\partial x^{1}_{k}}{\partial w_{jk}}
Ewjk=(Oktk)Ok(1Ok)xk1wjk\frac{\partial E}{\partial w_{jk}}=(O_{k}-t_{k})O_{k}(1-O_{k})\frac{\partial x^{1}_{k}}{\partial w_{jk}}
Ewjk=(Oktk)Ok(1Ok)xj0\frac{\partial E}{\partial w_{jk}}=(O_{k}-t_{k})O_{k}(1-O_{k})x^{0}_{j}
深度学习与PyTorch笔记13

相关文章: