本文为UFLDL的翻译版本,转自:https://segmentfault.com/a/1190000003916882,翻译作者为大巧不工,英文原文链接为:http://ufldl.stanford.edu/tutorial/unsupervised/Autoencoders/。

有监督的神经网络需要我们的数据是有标注(Labeled)的,然而神经网络并不止限于处理有标注的数据,同时还能处理无标注的数据,形如:

     其中的一种算法叫做AutoEncoder——自编码网络。

自编码网络模型

  • 自编码网络的结构如下图所示:

  • [转]AutoEncoder原理

     网络中最左侧蓝色的节点是输入层,最右侧黄色的一列神经元是输出层。
     输出层的神经元数量完全等于输入层神经元的数量。 隐藏层的神经元数量少于输出层。

     自编码网络的作用是,将输入样本压缩到隐藏层,再在输出端重建样本。也就是说,自编码网络输出层与输入层存在如下关系:

  • 注意:由于神经元的输出只在0和1之间,因此输入需要进行均值归一化

自编码网络可以看做将数据进行压缩(由原来的“n-维”压缩成“m维”(m=隐藏层神经元数目)),然后再在需要的时候用损失尽量小的方式将数据恢复出来。

这里有两层意思:

   第一,自编码网络是要将经过压缩的数据还原,即将我们将学习一组

这是算法要学习的参数。

 

   第二,还原数据应该使得损失尽量小,也就规定了我们的目标函数:

数据压缩原理

  • 压缩:限制隐藏层神经元数量
        限制隐藏层的神经元数量,就可以得到压缩的效果。例如:输入x是10*10图片的像素灰度值,即x是100维向量。输入层大小n=100。我们令隐藏层大小 s_2=50 ,那么隐藏层的输出a2是一个50维向量,网络的输出层必须使用这个50维向量来重建100维的输入。即实现了数据压缩。

 

  • 压缩原理
        数据压缩依靠的是数据本身是有冗余信息的。当输入是完全随机,相互独立同分布的时候,网络将很难习得一个有效的压缩模型,然而现实中的数据(自然图像、语言、声音)总是存在不同程度的冗余性。自编码网络通过学习发现并去掉了这些冗余信息。实际上,自编码网络学习出的低维数据表示十分类似于PCA(主成分分析)学习出的主成分。

 

  • 压缩:限制隐藏层的稀疏性
        另一种方式是限制隐藏层的稀疏性。首先定义稀疏性:

    稀疏性--- 神经元总是使用一个**函数,通常使用Sigmoid或者tanh函数,它们在输入很大的时候,趋于正无穷输出接近1的数,称该神经元为“**状态”;在输入很小,趋于负无穷的时候分别输出0和-1,称该神经元为“非**状态”。稀疏性要求隐藏层中的**神经元是“稀疏”的——即大部分神经元处于非**状态。



那么稀疏性限制可以限制:

为了保证ρj不偏离ρ,需要设置惩罚函数。

惩罚函数以相对熵(K-L Divergence)的形式给出。

注:K-L Divergence用于表示两个函数的差别,其定义为

  • 相对熵的性质:ρ与ρj相等时为0,随着偏差增大,相对熵增大,其图像如下图:
    [转]AutoEncoder原理[转]AutoEncoder原理

训练的注意事项

  • 在BP步骤中,对隐藏层进行权值更新需要计算:

  • 事实上可以用下式计算:

注意:在网络训练中,前向传播步骤应同时计算ρ,然后在后向传播步骤时做相应的修改。这样,每次前向传播的步骤计算量就增大了一倍。

相关文章:

  • 2022-12-23
  • 2021-08-14
  • 2021-07-08
  • 2021-06-18
  • 2021-09-29
  • 2021-04-10
猜你喜欢
  • 2021-04-21
  • 2021-07-10
  • 2021-12-03
  • 2021-04-16
  • 2021-06-05
  • 2021-06-19
  • 2022-01-15
相关资源
相似解决方案