Open zhaofeiwang2000 opened 1 month ago
你好,将yml中的pretrain改为true就是在训练或测试不使用classifier。
谢谢您!
另外,想请问如何不冻结encoder的预训练参数呢?
我尝试了在 basicsr/models/image_restoration.py 的 setup_optimizers(self) 中,设置 for param in self.net_g.parameters(): param.requires_grad = True
但是在训练过程中,我打印了encoder层的参数发现参数没有变化,且参数tensor的最后有 requires_grad = True。
forward里的with torch.no_grad()有注释掉么?
成功了!谢谢指点!