xinntao / ESRGAN

ECCV18 Workshops - Enhanced SRGAN. Champion PIRM Challenge on Perceptual Super-Resolution. The training codes are in BasicSR.
https://github.com/xinntao/BasicSR
Apache License 2.0
5.91k stars 1.05k forks source link

利用自己的数据集来fine-tune你们提供的ESRGAN model #55

Open shiyangjing opened 5 years ago

shiyangjing commented 5 years ago

您好,我直接用你们提供的训练好的ESRGAN模型来测试jpg图片,生成质量不佳,因此,我想用自己的样本图像集来fine-tune模型,应该怎样做?另外,为了减少训练时间,fine-tune时可以固定前几层的参数,只调整最后几层的参数值,这样做可行吗?感谢您的关注!

xinntao commented 5 years ago

你可以使用BasicSR的training code来进行finetune。 finetune的话, 你可以用较小的learning rate, 不需要再固定layers,整个网络finetune即可。

shiyangjing commented 5 years ago

你可以使用BasicSR的training code来进行finetune。 finetune的话, 你可以用较小的learning rate, 不需要再固定layers,整个网络finetune即可。

首先感谢您的回答!我电脑配置是一块GPU GTX 1070,内存是23.5G,不固定某些layers的话,训练时间会不会很长啊?我的想法是单独拿出生成器G来fine-tune,把RRDB_ESRGAN_x4.pth当做预训练模型,固定G的网络结构的前面一些layers,调整后面层的参数,这样把训练过程中的判别器D去掉的微调方式可行吗?

xinntao commented 5 years ago

ESRGAN的训练是很久。 如果你要训练perceptual-driven的SR, 把D去掉的话, 就是没有GAN loss了。 结果估计不行。

shiyangjing commented 5 years ago

ESRGAN的训练是很久。 如果你要训练perceptual-driven的SR, 把D去掉的话, 就是没有GAN loss了。 结果估计不行。

不固定layers,整个网络fine-tune的话,我将learning rate调小到多少比较合适?调小lr的同时减少训练迭代次数,这样能减少训练的时间吗?

xinntao commented 5 years ago

finetune的话, 可以把lr减小一半开始, 也可以减少训练次数。 这个依据具体模型而定。

jiequanz commented 5 years ago

你们好,想问个很基础的问题。 这里的fine tune指的是什么?方便解释一下吗?谢谢!

xinntao commented 5 years ago

Use a pre-trained model to continue your training.