视频链接:李宏毅机器学习(2016)_演讲•公开课_科技_bilibili_哔哩哔哩

课程资源:Hung-yi Lee

课程相关PPT已经打包命名好了:链接:https://pan.baidu.com/s/1c3Jyh6S 密码:77u5


我的第五讲笔记:李宏毅机器学习2016 第五讲 逻辑回归

Deep Learning


本章节首先介绍了深度学习的历史,然后较为详细地讲解了深度学习的三大步。


1.深度学习的起起伏伏

李宏毅机器学习2016 第六讲 深度学习

深度学习历史

其实在1958年就已经提出了感知机模型,其和上一节所讲的逻辑回归相比,只是最后计算值没有经过sigmoid函数处理。而是通过sgn函数输出结果0或1.

多层感知机模型在80年代就已经提出,很多人会问其和深度学习有什么区别?其实在之前06年RBM受限制玻尔兹曼机模型,如果说初始化用的是RBM就是深度学习,否则就是多层感知机,不过这一想法被否定了,因为人们发现这个RBM并没有那么大用处,就像是“石头汤”里面的石头一样。

GPU的利用极大的提升了深度学习的计算能力。

在12年的时候,深度学习参加ILSVRC图像大赛夺冠,引起了人们的关注。


2.深度学习三大步


深度学习和之前讲的其他机器学习方法没有很大区别,第一步是选择神经网络,第二步是定义函数好坏标准,第三步就是选择一个好的函数。这就像把大象放进冰箱一样简单。

Step1:

不同的连接方式会得到不同神经网络结构,最常见的就是全连接神经网络。

李宏毅机器学习2016 第六讲 深度学习

给一个网络结构,就定义了一个函数集;有确切的w和b,就是一个具体的函数。

李宏毅机器学习2016 第六讲 深度学习

不同的网络结构

通过矩阵运算以及GPU的并行计算能力能够加速网络的学习。

李宏毅机器学习2016 第六讲 深度学习

深度学习明显的优势在于不用手动的去做特征工程,而是可以通过定义网络结构隐藏层等使得网络可以自动提取特征。

李宏毅机器学习2016 第六讲 深度学习常见问题


step2:定义函数好坏标准

损失函数用的是交叉熵函数,对于所有的训练样本,得到损失值,再进行参数更新找到能够使得损失最小的函数。

李宏毅机器学习2016 第六讲 深度学习
李宏毅机器学习2016 第六讲 深度学习


step3:挑选最佳函数


方法还是用的gradient descent,即使是阿尔法狗都是用的梯度下降。

李宏毅机器学习2016 第六讲 深度学习

计算偏导在神经网络中会较为复杂,但是现成有很多库能够帮助我们较快的计算出偏导。

例如TensorFlow、caffe、theano等等。


3.思考

李宏毅机器学习2016 第六讲 深度学习

具有一个隐藏层的网络结构就可以表示任意复杂的函数,只要有足够的隐藏单元。

所以,为什么要选择深的网络而不是选择胖的呢?


相关文章:

  • 2021-04-10
  • 2021-07-25
  • 2021-12-10
  • 2021-10-12
  • 2021-07-15
  • 2021-07-01
  • 2021-10-02
  • 2021-09-11
猜你喜欢
  • 2021-09-01
  • 2021-04-11
  • 2021-04-27
  • 2021-09-28
  • 2021-11-04
  • 2021-05-20
  • 2021-06-06
相关资源
相似解决方案