首先,这两者是不能混淆也很容易混淆的,而混淆后代码其实是能跑通的,但结果肯定有差异,这就很恶心。

rpn_locs = rpn_locs.permute(0, 2, 3, 1).contiguous().view(n, -1, 4)

上面代码,在Faster-RCNN里,需要把rpn网络的一个输出,从batch_size*channel*height*weight的形式,变成batch_size*?*4的形式,如果直接用view去改变维度的话,则会混淆维度之间的信息,可以参考https://blog.csdn.net/weixin_41712499/article/details/108753170

 

举个例子:

a = torch.randn(4, 3, 32, 32)
a1 = a.transpose(1, 3).contiguous().view(4, 3*32*32).view(4, 32, 32, 3).transpose(1,3)

tensor([[[[True, True, True,  ..., True, True, True],
          [True, True, True,  ..., True, True, True],
          [True, True, True,  ..., True, True, True],
          ...,
          [True, True, True,  ..., True, True, True],
          [True, True, True,  ..., True, True, True],
          [True, True, True,  ..., True, True, True]],
......

这样能完全恢复数据维度信息,而

a.transpose(1, 3).contiguous().view(4, 3*32*32).view(4, 3, 32, 32)

则不能恢复

相关文章:

  • 2021-12-03
  • 2022-12-23
  • 2021-05-21
  • 2021-07-03
  • 2022-01-12
  • 2022-12-23
  • 2022-01-11
  • 2021-11-23
猜你喜欢
  • 2022-12-23
  • 2022-12-23
  • 2021-11-23
  • 2022-01-19
  • 2021-09-10
  • 2021-12-15
  • 2021-07-30
相关资源
相似解决方案