这是学了神经网络一课时的伙伴发我的,也算是一个总结吧!

我们一起来看看他的了解!

  • 这门课程和数学有很大的联系,让我感受到了数学的神奇伟大美丽课程中用到了求导、线性函数、非线性函数即线性组合、非线性处理。
  • 大概就是用局部的线性函数来表示全体的非线性函数,类似积分了
  • 比较重要的一张图
  • 单层神经网络:原始值、隐含层、输出层、输出值。神奇的x与y,好强大

上了一节神经网络课,我想说的话!

 

  • 运用到了线性组合、非线性处理:

解决非线性问题,每一个神经元,将输入值进行线性组合,然后转化为非线性结果

  • 认识了几个函数:梯度下降,损失函数,激励(活)函数
  • 逻辑回归模型
  • 反向传播算法,个人理解就是通过电脑计算机判断,如果错误就返回给一个信号,然后计算机修改然后不断的改正错误和刺激,来达到人工智能神经网络

 

上了一节神经网络课,我想说的话!

 

 

  • 激励函数暂时学了三种
  • 默认ReLU函数
  • Sigmoid函数,(需要整个区间可导)
  • tanh函数

上了一节神经网络课,我想说的话!

 

其实这块儿说难不难,说简单它也难,学习这块儿有困难的伙伴,可以留言,需要视频学习教程的伙伴,也可以留言:人工智能,老师有总结****,可以分享大家!

相关文章: