INVOKERer / AdaRevD

Other
29 stars 1 forks source link

关于Adaptive Classifier #9

Open zhaofeiwang2000 opened 1 month ago

zhaofeiwang2000 commented 1 month ago
  1. 在 README 中,您提到两个训练命令,一个是训练AdaRevD的主体,一个是训练classfier,请问如果我使用“训练AdaRevD的主体”的命令,如何才能在训练中完全不使用 Adaptive Classifier 这个模块呢?
  2. 在测试中,如何才能完全不使用 Adaptive Classifier 这个模块呢? 很期待您的解答!
INVOKERer commented 1 month ago

你好,将yml中的pretrain改为true就是在训练或测试不使用classifier。

zhaofeiwang2000 commented 1 month ago

谢谢您!

zhaofeiwang2000 commented 1 month ago

另外,想请问如何不冻结encoder的预训练参数呢?

我尝试了在 basicsr/models/image_restoration.py 的 setup_optimizers(self) 中,设置 for param in self.net_g.parameters(): param.requires_grad = True

但是在训练过程中,我打印了encoder层的参数发现参数没有变化,且参数tensor的最后有 requires_grad = True。

INVOKERer commented 1 month ago

forward里的with torch.no_grad()有注释掉么?

zhaofeiwang2000 commented 1 month ago

成功了!谢谢指点!