从零开始训练一个非常大的 DNN 通常不是一个好主意,相反,您应该总是尝试找到一个现有的神经网络来完成与您正在尝试解决的任务类似的任务,然后复用这个网络的较低层:这就是所谓的迁移学习。这不仅会大大加快训练速度,还将需要更少的训练数据。

例如,假设您可以访问经过训练的 DNN,将图片分为 100 个不同的类别,包括动物,植物,车辆和日常物品。 您现在想要训练一个 DNN 来对特定类型的车辆进行分类。 这些任务非常相似,因此您应该尝试重新使用第一个网络的一部分(请参见图 11-4)

复用预训练层

如果新任务的输入图像与原始任务中使用的输入图像的大小不一致,则必须添加预处理步骤以将其大小调整为原始模型的预期大小。 更一般地说,如果输入具有类似的低级层次的特征,则迁移学习将很好地工作


相关文章:

  • 2021-12-18
  • 2022-01-14
  • 2022-12-23
  • 2022-12-23
  • 2021-09-19
  • 2021-08-18
  • 2022-12-23
  • 2021-09-06
猜你喜欢
  • 2021-08-24
  • 2022-12-23
  • 2021-05-11
  • 2021-07-16
  • 2021-06-10
  • 2021-12-25
  • 2022-01-23
相关资源
相似解决方案