Deep Learning:

1.入门介绍:
❤️❤️❤️❤️❤️❤️❤️http://www.cnblogs.com/liuyihai/p/8321299.html
(对到皮层运作机制,人脑视觉机理讲的挺好)
(哪里都写的很好哦❤️❤️????????????????)
目前我们通过机器学习去解决这些问题的思路都是这样的(以视觉感知为例子):

Hongyi Li ----a lecture summary
从开始的通过传感器(例如CMOS)来获得数据。然后经过预处理、特征提取、特征选择,再到推理、预测或者识别。最后一个部分,也就是机器学习的部分,绝大部分的工作是在这方面做的,也存在很多的paper和研究。
而中间的三部分,概括起来就是特征表达。良好的特征表达,对最终算法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都耗在这一大部分。但,这块实际中一般都是人工完成的。靠人工提取特征。
Deep Learning=UnsupervisedFeature Learning(所以deep learning 区别于之前的机器学习主要之处是:实现了非监督的特征表达,之前的方法多是手工选取特征)
下面放一个美丽的图:
Hongyi Li ----a lecture summary
神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。
这里的关键词有两个,一个是抽象,一个是迭代。从原始信号,做低级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象的概念。(感谢无数只被实验的小猫猫)
Hongyi Li ----a lecture summary
总的来说,人的视觉系统的信息处理是分级的。从低级的V1区提取边缘特征,再到V2区的形状或者目标的部分等,再到更高层,整个目标、目标的行为等。也就是说高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象,越来越能表现语义或者意图。而抽象层面越高,存在的可能猜测就越少,就越利于分类。例如,单词集合和句子的对应是多对一的,句子和语义的对应又是多对一的,语义和意图的对应还是多对一的,这是个层级体系。

特征表示的粒度:
Hongyi Li ----a lecture summary

搞着玩的代码,用于数字识别使用keras
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
使用ADAM来化解local optimize

how to solve the overfitting:
1)you can create more training data .such as shift 15 degree.
2)add some noise into the dataset

how to thinner the layer(to perform good on the testing dataset)

1)early stopping(stop before you totally fit the training dataset)
Hongyi Li ----a lecture summary
2)weight decay(cut the things has no sense of meaning on it)
Hongyi Li ----a lecture summary
3)dropout(drop the neuron has no meaning)
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary

❤️use CNN to process the picture :
1)because you can identify a object by some obvious feature ,so you can use some part of the object to see what the picture is represent.such as you can use a beak to identify a bired.
2)you do not want to process a large picture with mass of useless pixels ,so you can subsampling the picture to get lass pixels to let the process be more easy.also means “less parameters for the network to process the image”
Hongyi Li ----a lecture summary
CNN原理:通过不同filter 来做运算(也许是与运算)以此来求出使用不同filter时,将会得到的预测结果。
Hongyi Li ----a lecture summary
use shared weights to arrive the goal that (use even less parameter )
Hongyi Li ----a lecture summary

RNN:

Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary
Hongyi Li ----a lecture summary

deep reinforcement learning

Hongyi Li ----a lecture summary

in the end :
放个美女:✌️✌️✌️✌️✌️✌️
Hongyi Li ----a lecture summary
in the end end end ,advertisement :
Hongyi Li ----a lecture summary

相关文章: