原笔记网址:https://scruel.gitee.io/ml-andrewng-notes/week1.html

红色字体为自己的标注、绿色字体为自己的感想。

目录

8 神经网络:表达(Neural Networks: Representation)

8 神经网络:表达(Neural Networks: Representation)

8.1 非线性假设(Non-linear Hypotheses)

理论上我们可以用多项式函数去近似任意函数(泰勒极数(Taylor series)),从而可得到任意问题的拟合曲线。

在实际处理时,特征量通常会很多,如果再构造高阶多项式等,特征数量将会急剧增加,这使得回归模型的复杂度太高,可见并不合适。神经网络无需构造高阶多项式,在特征量很大时也可以处理的很好。

那特征能有多大呢?下面是一个计算机视觉中的例子:

吴恩达MachineLearning-Week4

吴恩达MachineLearning-Week4

以下是一个例子:

吴恩达MachineLearning-Week4

8.2 神经网络和大脑(Neurons and the Brain)

脑科学家通过对动物实验,发现大脑中专用于处理听觉信号的脑皮层也能处理其他诸如视觉等信号,即如果切断其与耳朵的联系,将其与眼睛相连,则这块负责听觉的脑皮层区域也能接受并处理视觉信号,从而学会“看”。脑科学家通过这类换源实验,就推论假设大脑的学习算法只有一种(“one learning algorithm” hypothesis)。那么如果能找出这种学习算法并应用于计算机中,那梦想中和人一样的人工智能就成真了。

神经网络就源于模拟人类大脑,但其需要的计算量很大。随着计算机硬件性能的提高,神经网络逐渐从衰落变为流行,如今已广泛地被应用在各行各业中。

8.3 模型表示1(Model Representation I)

既然神经网络模仿的是大脑神经元,那就先看一下大脑的神经元长什么样吧:

吴恩达MachineLearning-Week4

吴恩达MachineLearning-Week4

补充:

1.每一层都会有一个偏差单元作用于下一个单元,但上一层单元不会作用到他。虽然图上一般不会标出,但实际上在计算时往往要写上。

2.我们将神经网络分为输入层x、隐藏层a(可以有多层)、输出层h。吴恩达MachineLearning-Week4(之后用theta表示)有时称为参数,有时称为权重,这都是一个意思,不必纠结。可以将它看做上一层单元分别作用于下一层单元的权重。

3.分析上下标:我们要计算当前层各单元,依靠将上层各单元(包括上层偏差单元)对当前单元的权重吴恩达MachineLearning-Week4与自身乘积和得到。吴恩达MachineLearning-Week4表示第二层第三个单元,吴恩达MachineLearning-Week4表示第一层的x2作用到第三层第三个单元。吴恩达MachineLearning-Week4上标表示这个式子是第一层作用到第二层,下标32表示第二层第三个单元与第一层第二个单元之间的联系。

4.下层每一个单元由函数给出,参数是上层给出。这与之前学的知识很像。可以将下层待求的单元看做y,上层的输入看做theta(x0未显示但是计算时要写出来),权重吴恩达MachineLearning-Week4看做X,为特征值。因此上层单元数j、下层单元数i,则矩阵维数:(i , j+1)。

吴恩达MachineLearning-Week4

吴恩达MachineLearning-Week4

吴恩达MachineLearning-Week4

例子,下面矩阵的维数4*3:

吴恩达MachineLearning-Week4

吴恩达MachineLearning-Week4

 

8.5 例子和直观理解1(Examples and Intuitions I)

为了更好的理解神经网络,举例单层神经网络进行逻辑运算的例子。

下面的例子中,吴恩达MachineLearning-Week4为二进制数。

逻辑与(AND)运算(都为真值则结果才为真)神经网络:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

相关文章: