YimianDai / open-aff

code and trained models for "Attentional Feature Fusion"
729 stars 95 forks source link

关于 Channel Attention 的 Scale #7

Closed YimianDai closed 3 years ago

YimianDai commented 3 years ago

第一: 为什么多尺度信息也存在于通道当中? 第二: 为什么求得的attention map H ,其中H<i,j,C> 表示的含义?表示的意义是什么意思?表示通道之间的依赖性?

回复:

谢谢您的来信。

更准确的说法应该是,在论文中,我们认为 通道注意力也应该是有 尺度 这一概念/属性的,而目前 SENet / SKNet 中所用的只是极端情况,最大的尺度 Global Scale 时候的 Channel Attention,而 AFF 论文里用的另一个分支,则是另一种情况,就是最小的尺度最最 Local 时候的 Channel Attention。AFF 用了最简单的多尺度,也就是 Local + Global,来聚合多尺度信息。

特征图的大小是 C x H x W, 因为我们用了 Local Channel Attention,所以计算出来的 Attention Map 的大小也是 C x H x W,实现 Local / Element-wise 的 Refinement。与之相对的是 SENet,一个 Channel 的权重是施加给整个 H x W 的,大小为 H x W 的 feature map 上每个元素所接收的权重都是一样的。通道之间的依赖性还是照常,SENet 用 Fully Connected 来抓取,那么 AFF 其实也一样, 就是用 Point-wise Conv 来抓取,在 Global 分支中,Point-wise Conv 跟 Fully Connected 是一模一样的。

总之,论文的假设就是 通道注意力也应该是有 尺度 的,控制尺度的变量就是 Pooling 的 Size。这个其实跟 SIFT 之类的经典方法通过 控制不同大小的高斯滤波器 来实现不同尺度空间的想法是一样的,只不过 AFF 里面用的是 AVGPooling。一旦接受了 Channel Attention 也应该有尺度这个概念,就可以了。

最后,有个不情之请,我们最好能在代码的 Issues 里面一起讨论 https://github.com/YimianDai/open-aff/issues ,这样的好处是大家都能看到。

祝您身体健康,工作顺利~

YimianDai commented 3 years ago

10 天了没有等到对方进一步的回复,先 close issue 了。