Open qiao-xu opened 2 years ago
论文提的这种算是通道注意力吗,只不过是每个尺度乘了一个数
论文提的这种算是通道注意力吗,只不过是每个尺度乘了一个数
论文提的这种算是通道注意力吗,只不过是每个尺度乘了一个数
在我看来,三个尺度的特征图concat在一起后,他是使用了类似CBAM的结构进行的融合,应该算是通道注意力吧
这个softmax求空间注意力是不是也有问题啊,在dim=0取,dim=0不是batch维吗
这个softmax求空间注意力是不是也有问题啊,在dim=0取,dim=0不是batch维吗
是的,paper里写的不清楚,只能靠公式猜了,我一直没搞懂他通道是怎么统一的
文章中是分别进行mp、sp后通过卷积,然后sigmoid[AP (F ) + M P (F )],生成3个1x1x1的channel 自适应权重,在我看来这就是一组SE模块吧
我也是这么以为的,通道注意力是SE,感觉就是把原本串行的CBAM改成并行的,然后通过相加进行融合。按这个思路加到我的实验中,精度还降了
文章中是分别进行mp、sp后通过卷积,然后sigmoid[AP (F ) + M P (F )],生成3个1x1x1的channel 自适应权重,在我看来这就是一组SE模块吧