1. Tittle

RL论文阅读11-me-SNAIL2018

source

2. 标签

  • Meta-learning

3. 总结

针对问题

  • 最近的meta-learning方法,一般都是手动设计的,使用某种架构去解决特定的问题 或者 使用硬编码的算法组件。这种手动设计限制了meta-learner解决任务的方式。因为人共设计的架构可能不是针对该任务的最好的方式。
  • Meta-Learning能够被定义为sequence-to-sequence的问题,现有方法都采用这个观点,但是这个瓶颈问题是meta-learner利用并理解以往经验。

解决思路

提出了一个新的meta-learner的结构,结合temporal convolutionssoft attention

  • temporal convolutions:用来让meta-learner整合过去经验的信息。
  • soft attention:精确指定特定的信息碎片。

4. 原理

meta-learning的一些定义

meta-learning是任务级别的,是对不同任务组成的集合上进行一个概括。

传统机器学习是数据级别的,在某个任务的数据集上进行一个概括。

meta-learner的任务时最小化在所有任务上(或者一个batch的任务)上的损失的数学期望。如下:

RL论文阅读11-me-SNAIL2018

TiT_i 任务,是序列化的,任务的概率分布:T=P(Ti)T = \it P (T_i)

xtx_t任务的输入

ata_t任务的输出

Li(xt,at)L_i(x_t,a_t)任务的损失函数

θ\theta Meta-learner的参数

Simple Neural Attentive Learner(SNAL)

设计原则:

简单和多功能,meta-learner应该能够同时应用于supervised和reinforcement learning。应该同通用并且有足够表达能力去学习最优的策略,而不是使用已经内建(人工设计)的策略

前人工作

  • Santoro et al.(2016) 相似的meta-learning问题表述,使用RNN应用于Meta-Learner。相对有手工设计meta-learner的方法有显著的性能提升。作者猜想可能是因为RNN结构能够通过时间步之间的隐藏层来传播信息。但是这个时间线性相关性限制了对输入流执行复杂计算的能力。
  • van den Oord et al.(2016) 提出了一类通过在时间维度扩展成一维卷积的方式生成序列数据的架构(他们针对的是音频)。即TC(temporal convolutions),他是由因果关系的(下一时间生成的值只受过去的影响 ,与未来无关),相对于RNN,通常各直接、高带宽去访问 过去数据 。然而,对于很长的序列,dilation rates(膨胀率)会指数增长,需要层数序列长度成对数比例。有限的能力位置依赖在meta-learning中是不希望的,他应该能够利用越来越多的经验。
  • soft attention允许模型从无限大的contex(上下文)中定位特定的信息片段。contex是以key-value形式存储的。但是缺少位置依赖(positional dependence),没有表达序列化的能力,故也是meta-learner不希望的,特别是在RL中,信息本身就是序列化的。

所以把TC和soft attention结合,优缺点互补。且比RNN更好训练。

架构图:黄色点是TC layer, 绿色点是Attentons Layer。

RL论文阅读11-me-SNAIL2018

每个模块的输入输出

多个Dense Block和扩张率组成一个TC。TC没在图中画出来

RL论文阅读11-me-SNAIL2018

DenseBlock的伪代码:

RL论文阅读11-me-SNAIL2018

TC Block伪代码:

RL论文阅读11-me-SNAIL2018

Attention Block的伪代码:

RL论文阅读11-me-SNAIL2018

相关文章:

  • 2021-06-26
  • 2021-08-07
  • 2021-10-24
  • 2021-11-29
  • 2021-09-26
  • 2021-08-13
  • 2021-05-12
  • 2021-09-06
猜你喜欢
  • 2021-06-01
  • 2021-07-06
  • 2021-09-05
  • 2021-11-15
  • 2022-01-14
  • 2022-01-03
  • 2021-11-27
相关资源
相似解决方案