人工智慧:人类想要达成的目标。
机器学习:达成目标的手段。或者先天的本能,即人类的设计,或者通过后天学习手段,即训练过程。
深度学习:机器学习中的一种方法。
河狸生物本能生下来听到声音就会筑水坝:
聊天机器人的本能:基于预先设定的规则(hand-crafted rules),编制的程序,根据input的指令,得到相应的相应。
hand-crafted-rule: 适用于小企业小成本发展,缺点永远无法超远创造者。
如下if-else式样的AI是错误的
AI:让机器变得很聪明,有学习的能力。只是写程式变成有学习的能力,而不是做一件具体的事情。
如下,学会语音识别:
如下,图像识别:
所以,AI可以理解为从已有数据中,寻找一个Function,获取经验。
如语音辨识,仅仅靠规则,60年代就有了,但是并不能得到好的结果。
如图像识别,输入图像,输出判定结果。
如Go,预定规则,function,输入黑子白子的棋盘位置,输出下一步的落子。
如对话系统,function,输入问题,输出结果。
以图像识别为例:
准备具有成千上万个的function的function set,这个set就叫做model,根据训练的资料,即数据,告诉model,好的输出输出长得什么样子(label),判断一个function是好的还是差的。这也叫supervised learning。
对于无穷尽的function,则需要一个有效率的算法,来从巨大的set中挑选出Best的function,佳作f*, 然后使用F*进行工作。
所以机器学习有三个步骤,即以下:function set,判断goodness,挑选goodness的效率方法。
对于样本中没有毛,怎么让机器在学习的时候,知道它是不是猫呢?这就是设法让机器具有举一反三的能力。
下面内容:
先看Regression,找一个function,输入的是过去的已有的信息,即训练资料,输出是一个数值,number。
然后是Classification,与Regression的区别是输出的类型不同。
Classification是二分类(0,1)和多分类(做选择题)
二分类举例:
multi-class多分类
Regression和Classification的步骤:
第一步选model,如linear model, 进一步的是Non-linear model,其中一个是deep learning。
dl的function是特别复杂的,所以可以做很复杂的事情。
如图像识别:
如下围棋,也是分类问题,输出就是19*19的multi-class多分类的一个位置。
训练资料Trainning data,如棋谱
即根据胜负,输入为第一位选手落子后的棋盘位置信息,输出为第二位选手的落子位置。
除了dl,还有SVM、decision,K-NN都是No-linear model。
根据训练资料,知道output,通常是做label,工作量很大,自动话标注的方法是 Semi-Supervised leaning
对于Semi-Supervised leaning,为unlabeled data也可能对机器学习是有帮助的,后文讲解。
对于transfer learning,有一部分少量的带label的data,还有一大部分带label或者不带label,相干或者不相干任务的data。这些不相干干的图片,也可以带来一定的意义。
对于unsupervized learning,让机器学到无师自通,如让机器看大量的文章,看其可以学到什么。
如能不能学会每个词汇的意思。
如看了动物园里的大量的动物以后,可不可以自动的创造出动物来。
如Machine Drawing,unsupervised learning输入不知道是什么,如code是代表图片的某张特性,输出时一张图片,给机器看到的只有大量的图片,只有output,某有input,如何让机器学习怎么辨识出output。
对于structureed learning,输出是一种有复杂结构性的东西,部件。如带序列,含义,
如,语音识别,输入的是一段语音,输出的是一段文字。
如,机器翻译,输入的是一段英语,输出的是
machine learning 不止有 regression和classification,还有structureed learning,像暗黑大陆地
对于reinforcement leanring,体现在玩小游戏,AlphaGo。
在supervized learning中,会告诉机器是什么方法来训练一个机器人,使用者说啥,你对应的说啥,机器人有家教。从师父那里学习东西。
在reinforcement learning中,没有告诉机器答案是什么,只有一个分数,即他回答的好或者不好。从评价中学习,更符合人类学习的真正情景。
例如,以AlphaGo为例,先基于监督学习,再利用一个对手来做增强学习。
最后,
蓝色代表学习情景,无法控制,只能采用不同的策略适应情景。即没有办法做supervized learning的时候,才能/就去做reinforcement learning
红色代表要解的问题text,有regression,classification,structured learning。
绿色代表model,具体方法。同样的text可以用不同方法来解。