疑问-为什么要那么多层

一层做的足够多,就可以了
hung-yi lee_p15_Why Deep(cont.)
如果参数总数一定,比较两种神经网络
矮胖vs.高瘦
hung-yi lee_p15_Why Deep(cont.)
结果显示:即使参数更少,高瘦的网络出错率更低
hung-yi lee_p15_Why Deep(cont.)
为什么呢?
做DL其实就是在做模块化
hung-yi lee_p15_Why Deep(cont.)
例如,现在做这样一个影响分析:长发男,长发女,短发男,短发女,需要四个分类模型
但长发男的数据过少,会造成训练出的模型性能较弱(weak)
hung-yi lee_p15_Why Deep(cont.)
为了解决这个问题,我们可以把问题切分成两个,这样任一数据集中数据数量都不会太少
hung-yi lee_p15_Why Deep(cont.)
这样新的模型可以利用已经训练的模型,只需借助比较少的结果就能训练出好模型
hung-yi lee_p15_Why Deep(cont.)
总结一下就是
第一层是最基础的分类器,第二层把第一层输出作为输入,稍微复杂些,以此类推……
模组化的作用是把复杂的问题变简单了,就算训练集数据没那么多,也可以做好
AI = 大数据 + Deep Learning 的说法是误人的
hung-yi lee_p15_Why Deep(cont.)

模块化在语音识别中的应用

人类语言的架构

同一个音素(phoneme)会因为上下文不同发不同音

语音识别step 1

将 acoustic feature (声学特征)转成 state
每一段时间取一些数据 得到 acoustic feature sequence
hung-yi lee_p15_Why Deep(cont.)

看到16:54

相关文章:

  • 2021-07-22
  • 2021-11-19
  • 2021-04-01
  • 2021-08-07
  • 2021-07-27
  • 2021-12-25
  • 2021-07-14
  • 2021-05-25
猜你喜欢
  • 2021-08-24
  • 2021-09-10
  • 2021-04-09
  • 2021-12-30
  • 2021-12-02
  • 2021-05-23
  • 2021-06-26
相关资源
相似解决方案