人到40,挑战一下我是否还有深度学习的能力。由于岁数大了,不研究技术细节。只研究,人工智能如何在宏观上,改变我们的生产效率。

写篇blog,记录一下这个历程。

在学习之前,我对AI的理解是: 以后的程序员,对于复杂的基于情景的判断,不再基于一大堆复杂的 if then else 。


例如,原来的程序要判断一个用户是否喜欢某一张照片,则需要做N多的关联性判断。

有了AI之后,则 变成  if 用户喜欢 ( face.jpg ) == 1 then {  找出更多客户希望的相似照片推荐给客户 }


学习平台: deeplearning.ai 

续费,49美元。

基础数学:大学的数理统计基础。

学习设备: mac 电脑 

学习环境 : google , .coursera.org  维基百科

老师: 吴老师 


吴老师,第一句话,就说清楚了deeplearning可以的一个商业用途。此用户可以通过预测你的的在线广告是否会被用户点击。这个对于公司运营MAC v*n在百度上的广告非常有用。毕竟,创意和用户需求直接存在天然的沟堑。如果通过预测,可以降低,则事倍功半。预测一个广告创意,在上线后的点击,我擦,貌似比较NB。


什么是神经网络?

神经网络由神经元构成。每一个神经元,就是一个有技术功能的函数。

一堆神经元的集合或者叠加,就变成了神经网络。例如,预测房价。房价信息可以通过地理位置、交通情况、房屋面积、需求(要住的人数等等)来预测。


吴老师提到RELU,RELU是一个线性计算方法。用得很广。现在不用管,以后会提到。



deeplearning 学习笔记

deeplearning 学习笔记


deeplearning 学习笔记


 吴老师总结到 值得注意的是:神经网络只要给予足够多的资料X,就会非常好的找出函数(是不是就是神经元?)对应X到Y.\\

  

我的疑问:谁负责找出这个好的函数?这个函数不是自己写的吗?




Wki的定义,对于RELU:


通常意义下,线性整流函数指代数学中的斜坡函数,即

{\displaystyle f(x)=\max(0,x)}deeplearning 学习笔记

而在神经网络中,线性整流作为神经元的**函数,定义了该神经元在线性变换 {\displaystyle \mathbf {w} ^{T}\mathbf {x} +b}deeplearning 学习笔记之后的非线性输出结果。换言之,对于进入神经元的来自上一层神经网络的输入向量 {\displaystyle x}deeplearning 学习笔记,使用线性整流**函数的神经元会输出

{\displaystyle \max(0,\mathbf {w} ^{T}\mathbf {x} +b)}deeplearning 学习笔记

至下一层神经元或作为整个神经网络的输出(取决现神经元在网络结构中所处位置)。

deeplearning 学习笔记


找到这一篇说明RELU的。

近来的神经网络倾向于使用ReLU替代掉sigmoid函数作为隐层的**函数,它的定义如下:

f(x) = max(x,0).

当x大于0时,函数输出x,其余的情况输出为0。函数的图像是:

deeplearning 学习笔记

来源:cs231n

使用ReLU函数的好处是,对于所有大于0的输入,导数是恒定的,这能够加快训练网络的速度。

彻底晕菜了。 导数是=dv/dt ,是一个瞬间值。越看越糊涂。




给自己的作业:通过类似matlab的数学软件Grapher,了解清除什么是RELU函数。

MAC版的GRAPHER的函数调用教程在:MAC GRAPHER的函数说明





我去,一堆数学。

线性回归,也就是拟合。给定线性的Y1,Y2,Y,找到一个f(x),使得f(x)的值,和Y1,Y2,...YN无限逼近。

算法有:线性回归


deeplearning 学习笔记

相关文章:

  • 2021-07-03
  • 2021-08-12
  • 2021-04-13
  • 2021-10-25
  • 2021-06-04
  • 2021-09-30
  • 2021-10-18
  • 2021-08-18
猜你喜欢
  • 2021-11-19
  • 2021-05-22
  • 2022-12-23
  • 2022-01-07
  • 2021-11-18
  • 2021-05-08
  • 2021-05-12
相关资源
相似解决方案