小白都能看懂的神经网络入门,快收下吧~

神经网络是什么?神经网络就是一系列简单的节点,在简单的组合下,表达一个复杂的函数。下面我们来一个个解释。


小白都能看懂的神经网络入门,快收下吧~




线性节点 




节点是一个简单的函数模型,有输入,有输出。

1、最简单的线性节点x+y


我能想到的最简单的线性节点当然就是 。 


小白都能看懂的神经网络入门,快收下吧~


2、参数化线形节点ax+by


是一个特殊的线形组合,我们可以一般化所有xy的线性组合即 ax by。这  a就是这个节点的参数。不同的参数可以让节点表示不同的函数,但节点的结构是一样的。


小白都能看懂的神经网络入门,快收下吧~


3、多输入线性节点a1xa2xa3x3+...+anxn

我们进一步把 个输入一般化成任意多个输入。这里 a1,a2,a3,...a是这个节点的参数。同样,不同的参数可以让节点表示不同的函数,但节点的结构是一样的。注意 并非是这个节点的参数,输入个数不同的节点结构是不一样的。 

小白都能看懂的神经网络入门,快收下吧~


4、 线性节点的向量表达aTx


上面的式子太过冗长,我们用向量 表示输入向量 (x1x2, . . . , xn), 用向量 表示参数向量  (a1,a2,...,an)不难证明aTx=a1x+a2x+a3x3+...+anxn这里向量 就是这个节点的参数,这个参数的维度与输入向量的维度相同。 


小白都能看懂的神经网络入门,快收下吧~


5、带常量的线性节点aTx+b


有时我们希望即使输入全部为 的时候,线形节点依然可以有输出,因此引入一个新的参数 作为偏差项,以此来增加模型的表达性。有时,为了简化,我们会把表达式写作 ax此时,= (x1,x2,...,xn,1),= (a1,a2,...,an,b

小白都能看懂的神经网络入门,快收下吧~


6、带**函数的线性节点1(a> 0)


对于二项分类问题,函数的输出只是真或假,即 或 1。函数 1→ {1, 0} 将真命题映射到 1, 将假命题映射到 0。 


小白都能看懂的神经网络入门,快收下吧~




线性节点实例




1、线性节点表达 ∨ (或函数) ,或函数的真值表如下

小白都能看懂的神经网络入门,快收下吧~

定义节点 1(− 0.5 > 0), 不难验证,它与 ∨ 是等价的。 


小白都能看懂的神经网络入门,快收下吧~


2、线性节点表达 x ∧ y (与函数) ,与函数的真值表如下: 


小白都能看懂的神经网络入门,快收下吧~

定义节点 1(− 1.5 > 0), 不难验证,它与 ∧ 是等价的。 

小白都能看懂的神经网络入门,快收下吧~





线性节点的表达力




单个线性节点可以表达所有线性函数(函数值域为实数集)、以及所有线性可分的分类 (函数值域为{0, 1})。概念定义和命题的证明我们这里不再阐述。虽然单个线性节点已经很强 ,但依然有图的局限性。对于线性不可分的函数,它无能为力, 例如异或函数 ⊕ 

小白都能看懂的神经网络入门,快收下吧~





线性节点的组合





1、多个线性节点同层组合WTx


上述的线性节点输入是多维的,但输出只是一维,即一个实数。如果我们想要多维的输出,那么就可以并列放置多个节点。设 a1 ,a2 ,...,am 分别是 个节点的参数,那么输出则分别为 a1Tx,a2Tx,...,amx最终的输出结果为  


小白都能看懂的神经网络入门,快收下吧~


其中 = [a1,a2,...,am是一个 n 行m 列的参数矩阵。 

小白都能看懂的神经网络入门,快收下吧~



2、多层线性节点:


多层线性节点中,某一层带**函数的线性节点,输出作为下一层的输入 。通常中间层(或者隐藏层,图中的蓝色节点)会带有一个**函数,来增加模型的表达力 。(思考如果隐藏层没有**函数,为什么两层线性节点和一层等价?) 

小白都能看懂的神经网络入门,快收下吧~

多层线性节点实例


1. 多层表达异或函数 ⊕ y,异或函数的真值表为: 

小白都能看懂的神经网络入门,快收下吧~


这是一个不可线性分隔的函数,不可以一个线性节点表达。但我们可以使用多层的线性节点来完成这个任务。


小白都能看懂的神经网络入门,快收下吧~


小白都能看懂的神经网络入门,快收下吧~




多层线性节点的表达力




可以证明,多层神经元可以表达所有连续函数。证明比较复杂,有兴趣的粉丝可以去看下A visual proof that neural nets can compute any function


小白都能看懂的神经网络入门,快收下吧~




总结


其实在本篇文章中,我们还有很多常见的节点没有讲到, 如 ReLu, sigmoid, dropout 等。神经网络不仅有正向计算,还有反向传导,这些节点的出现和反向传导息息相关……


分享朋友圈 也是另一种赞赏

The more we share, The more we have

 

欢迎加入数据君高效数据分析社区


加我私人微信进入大数据干货群:tongyuannow 



小白都能看懂的神经网络入门,快收下吧~



目前100000+人已关注加入我们

小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~

小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~ 小白都能看懂的神经网络入门,快收下吧~



小白都能看懂的神经网络入门,快收下吧~

相关文章: