AlanLi1997 / slim-neck-by-gsconv

Pytorch implementation of the 'Slim-neck by GSConv: a lightweight-design for real-time detector architectures'
https://link.springer.com/article/10.1007/s11554-024-01436-6
GNU General Public License v3.0
195 stars 12 forks source link

注意力添加在哪个位置? #11

Closed wenjunx closed 1 year ago

wenjunx commented 2 years ago

你好,想请教下三个注意力添加在哪几个位置,参考一下

wenjunx commented 2 years ago

我看论文建议是放在主干末端,那3*CA是在主干最后放三个CA的意思嘛

wenjunx commented 2 years ago

还有那个SPPF*4是在同个位置,同通道数直接用四次的意思吗?可以提供点细节吗?期待您的回复,感谢您的工作,谢谢了!

AlanLi1997 commented 2 years ago

你好,想请教下三个注意力添加在哪几个位置,参考一下

你好,我们上传了一个添加注意力模块的GSConv-yolov5-attention.yaml文件,可以作为您的一个参考。您需要将您希望使用的注意力模添加在我们提供的样例的位置。3CA和4SPPF是指使用的CA和SPPF模块的次数,要注意,这些模块不是在同一位置重复使用的。补充的信息参考 #6

wenjunx commented 2 years ago

@AlanLi1997 好的,谢谢您!

RainyMoring commented 1 year ago

您好,请问这个4SPPF的4次是分别添加在了哪个地方?是每个特征层的输出部分吗?我在您的https://github.com/AlanLi1997/slim-neck-by-gsconv/issues/6里没有看到详细说明

AlanLi1997 commented 1 year ago

您好,请问这个4SPPF的4次是分别添加在了哪个地方?是每个特征层的输出部分吗?我在您的https://github.com/AlanLi1997/slim-neck-by-gsconv/issues/6里没有看到详细说明

你好,backbone最后插入了一个SPP模块,其余三个SPP可以直接插入检测头前,如下:


YOLOv5 v6.0 head head: [[-1, 1, GSConv, [512, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], [[-1, 8], 1, Concat, [1]], # cat backbone P4 [-1, 3, C3, [512, False]], # 16

[-1, 1, GSConv, [256, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], [[-1, 5], 1, Concat, [1]], # cat backbone P3 [-1, 3, C3, [256, False]], # 20 (P3/8-small) [-1, 1. SPPF, [256, 5]], # <---------------

[-1, 1, GSConv, [256, 3, 2]], [[-1, 17], 1, Concat, [1]], # cat head P4 [-1, 3, C3, [512, False]], # 23 (P4/16-medium) [-1, 1. SPPF, [512, 5]], # <---------------

[-1, 1, GSConv, [512, 3, 2]], [[-1, 13], 1, Concat, [1]], # cat head P5 [-1, 3, C3, [1024, False]], # 26 (P5/32-large) [-1, 1. SPPF, [1024, 5]], # <---------------

[[21, 25, 29], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5) ]