1. Introduction

本文的主要结构是一个两层的lstm,第一层生成global context memory(GCA),就是一个全局的背景信息。第二层LSTM加了注意力模型。这个注意力信息的生成有来自第一层的全局背景信息GCA的辅助,然后生成的注意力信息再用来重新调节全局背景GCA信息。是一个反复迭代的过程。最后GCA被用来分类。
[骨架动作识别]Global Context-Aware Attention LSTM
为什么要这样做?

  • 对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。本文的GCA-LSTM,将初始背景信息送给每一个step。
  • 不是所有的节点都有有用信息,所以引入注意力模型

ST-LSTM

S for Spatial
T for Temporal

相关文章:

  • 2021-09-19
  • 2021-05-23
  • 2021-04-21
  • 2021-04-12
  • 2021-10-03
  • 2021-05-21
  • 2021-04-16
  • 2021-04-04
猜你喜欢
  • 2021-04-24
  • 2021-05-10
  • 2021-10-12
  • 2021-07-28
  • 2021-06-07
  • 2021-08-03
  • 2021-05-05
相关资源
相似解决方案