网络结构 各神经元分别属于不同的层 层内无连接 神经元是全连接

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 一些术语:L代表层数 、Mi代表i层神经元的个数、fi()代表i层的**函数、Wi代表第i-1层到i层的权重矩阵、bi代表了i层的偏置、zi代表i层净输入量、ai代表i层的输出

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 计算过程:

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 通用近似定理:

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 应用到机器学习

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

参数学习

应用到机器学习

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 梯度下降

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 如何计算梯度

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

前提知识

矩阵微积分

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 矩阵的链式法则

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

反向传播算法

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 计算图与自动微分 每一个原点代表了一个原子操作

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 自动微分

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 反向传播算法

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 静态计算图和动态计算图

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 深度学习

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 神经网络的优化问题

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 非凸优化问题

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

 梯度消失问题

邱锡鹏 神经网络与深度学习课程【六】——前馈神经网络2和3

相关文章: