5.深度卷积神经网络
问题1:卷积操作的本质特性包括稀疏交互和参数共享,具体解释这两种特性及其作用。
答:
- 在卷积神经网络中,卷积核尺度远小于输入的维度,这样每个输出神经元仅与前一层特定局部区域内的神经元存在连接权重,我们称这种特性为稀疏交互。
- 稀疏交互的物体意义是,通常图像、文本、语音等现实世界中的数据都具有局部的特征结构,我们可以先学习局部特征,再将局部的特征组合起来形成更复杂的和抽象的特征。
- 参数共享是指在同一个模型的不同模块中使用相同的参数,它是卷积运算的固有属性。
- 参数共享的物理意义是使得卷积层具有平移等变性。
问题2:常用的池化操作有哪些?池化的作用是什么?
答:
- 均值池化:通过对邻域内特征数值求平均来实现,能够抑制由于邻域大小受限造成估计值方差增大的现象,特点是对背景的保留效果更好。
- 最大池化:通过取邻域内特征的最大值来实现,能够抑制网络参数误差造成估计均值偏移现象,特点是更好的提取纹理信息。
- 池化操作的本质是降采样。除了能显著降低参数量外,还能够保持对平移、伸缩、旋转操作的不变形。
问题3:卷积神经网络如何用于文本分类任务?
答:
6:深度残差网络
问题1:ResNet的提出背景和核心理论是什么?
答:
- 解决或缓解深层的神经网络训练中的梯度消失问题。