cfzd / FcaNet

FcaNet: Frequency Channel Attention Networks
MIT License
510 stars 100 forks source link

有关self.dct_h和self.dct_w的设置? #10

Closed XFR1998 closed 3 years ago

XFR1998 commented 3 years ago

在这个类中MultiSpectralAttentionLayer有以下部分。 if h != self.dct_h or w != self.dct_w: x_pooled = torch.nn.functional.adaptive_avg_pool2d(x, (self.dct_h, self.dct_w))

If you have concerns about one-line-change, don't worry. :)

        # In the ImageNet models, this line will never be triggered.
        # This is for compatibility in instance segmentation and object detection.

如果我的任务是目标检测,我该怎么设置self.dct_h和self.dct_w?

cfzd commented 3 years ago

@XFR1998 这个不需要设置,直接使用默认设置就好了。我们的默认设置是,以resnet为例,它的四个stage的dct_h分别为56,28,14,7,dct_w也是一样的. 具体代码可以看这块: https://github.com/cfzd/FcaNet/blob/aa5fb63505575bb4e4e094613565379c3f6ada33/model/fcanet.py#L19 https://github.com/cfzd/FcaNet/blob/aa5fb63505575bb4e4e094613565379c3f6ada33/model/fcanet.py#L29

XFR1998 commented 3 years ago

那如果我换成别的网络不用resnet我应该怎么根据实际情况设置呢?

XFR1998 commented 3 years ago

我看你好像是根据通道数进行设置的对吗,应该怎么修改呢?谢谢

cfzd commented 3 years ago

那我觉得你就干脆全部设成7就行了。

XFR1998 commented 3 years ago

那我觉得你就干脆全部设成7就行了。

好的谢谢大佬指点~

Max-Well-Wang commented 3 years ago

那我觉得你就干脆全部设成7就行了。

好的谢谢大佬指点~ 我觉得需要重新设置c2wh = dict([(64,56), (128,28), (256,14) ,(512,7)]),根据通道及其对应的尺寸来改变。