第一:
为什么多尺度信息也存在于通道当中?
第二:
为什么求得的attention map H ,其中H<i,j,C> 表示的含义?表示的意义是什么意思?表示通道之间的依赖性?
回复:
谢谢您的来信。
更准确的说法应该是,在论文中,我们认为 通道注意力也应该是有 尺度 这一概念/属性的,而目前 SENet / SKNet 中所用的只是极端情况,最大的尺度 Global Scale 时候的 Channel Attention,而 AFF 论文里用的另一个分支,则是另一种情况,就是最小的尺度最最 Local 时候的 Channel Attention。AFF 用了最简单的多尺度,也就是 Local + Global,来聚合多尺度信息。
特征图的大小是 C x H x W, 因为我们用了 Local Channel Attention,所以计算出来的 Attention Map 的大小也是 C x H x W,实现 Local / Element-wise 的 Refinement。与之相对的是 SENet,一个 Channel 的权重是施加给整个 H x W 的,大小为 H x W 的 feature map 上每个元素所接收的权重都是一样的。通道之间的依赖性还是照常,SENet 用 Fully Connected 来抓取,那么 AFF 其实也一样, 就是用 Point-wise Conv 来抓取,在 Global 分支中,Point-wise Conv 跟 Fully Connected 是一模一样的。
回复: