Open fighterzhao opened 1 year ago
您好: 第一个问题:我也遇到过,也没有好的办法,gan的loss本来就不稳定,我一般都是以L1损失作为参考。 第二个问题: 我使用lsgan生成的图像过于平滑 第三个问题:可能是因为bn设置为了1,使用中没发现太大差别
---- 回复的原邮件 ---- | 发件人 | @.> | | 日期 | 2023年09月12日 15:12 | | 收件人 | @.> | | 抄送至 | @.***> | | 主题 | [ZZG-Z/Parallel-GAN] 请教问题 (Issue #3) |
作者您好,您的论文思想我觉得非常精彩,因此进行了仔细拜读,可能是我理解偏差,关于代码我有一些问题请教您,望您不吝赐教 1 使用QXSLAB_SAROPT数据集,训练光学图像重建网络时候,只跑了一个epoch, (epoch: 0, iters: 13600, time: 0.064, data: 0.000) G_GAN: 9.553 D_real: 0.000 D_fake: 0.000 recon_VGG: 13.748 G_L1: 7.467 (epoch: 1, iters: 300, time: 0.064, data: 0.001) G_GAN: 10.084 D_real: 0.000 D_fake: 0.000 recon_VGG: 9.339 G_L1: 9.473 (epoch: 1, iters: 400, time: 0.063, data: 0.001) G_GAN: 9.907 D_real: 0.000 D_fake: 0.000 recon_VGG: 11.157 G_L1: 6.219 (epoch: 1, iters: 500, time: 0.064, data: 0.000) G_GAN: 9.472 D_real: 0.000 D_fake: 0.000 recon_VGG: 8.571 G_L1: 5.221 D_real与D_fake已经变为0,这里总感觉有点怪,不知这样的训练过程是否合理
2 一般论文中都是用lsgan损失,我看到您仍然使用的是vanilia损失,是有是什么特殊考虑吗
3 一般的图像到图像翻译模型都是用Instancenorm,您使用的是batchnorm,这个会有影响结果吗
如果方面的话,可否留一个联系方式,能够与您一起学习交流呢,我的联系方式QQ:450392168
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>
作者您好,您的论文思想我觉得非常精彩,因此进行了仔细拜读,可能是我理解偏差,关于代码我有一些问题请教您,望您不吝赐教 1 使用QXSLAB_SAROPT数据集,训练光学图像重建网络时候,只跑了一个epoch, (epoch: 0, iters: 13600, time: 0.064, data: 0.000) G_GAN: 9.553 D_real: 0.000 D_fake: 0.000 recon_VGG: 13.748 G_L1: 7.467 (epoch: 1, iters: 300, time: 0.064, data: 0.001) G_GAN: 10.084 D_real: 0.000 D_fake: 0.000 recon_VGG: 9.339 G_L1: 9.473 (epoch: 1, iters: 400, time: 0.063, data: 0.001) G_GAN: 9.907 D_real: 0.000 D_fake: 0.000 recon_VGG: 11.157 G_L1: 6.219 (epoch: 1, iters: 500, time: 0.064, data: 0.000) G_GAN: 9.472 D_real: 0.000 D_fake: 0.000 recon_VGG: 8.571 G_L1: 5.221 D_real与D_fake已经变为0,这里总感觉有点怪,不知这样的训练过程是否合理
2 一般论文中都是用lsgan损失,我看到您仍然使用的是vanilia损失,是有是什么特殊考虑吗
3 一般的图像到图像翻译模型都是用Instancenorm,您使用的是batchnorm,这个会有影响结果吗
如果方面的话,可否留一个联系方式,能够与您一起学习交流呢,我的联系方式QQ:450392168