Open ReBenDish opened 2 weeks ago
是论文中的模型。 结果均可以复现。存在较大差距大概率是运行过程(设置、指令等)存在问题。
是否会是pytorch版本或者工具包版本的问题,因为设置是按照yml设置的没有动,指令的话也是仓库提供的,应该不会有这么大的差异
你有修改过什么代码或者设置吗? pytorch版本对结果影响不大。
没有,只是单纯的修改了数据集的地址,模型相关的都没有改动
还有一个现象,我不知道与这个是否有关,我在运行python setup.py时,总是不成功报Segmentation fault (core dumped),因此我就没有进行这一步,直接跑的test,不知道是否有关
用截图的方式,给出你的测试代码、配置、结果。
这是结果: 配置其实我没有修改什么,只有地址修改了: 指令也没有修改: python basicsr/test.py -opt options/Test/test_DAT_x2.yml
题外话:我还发现一个有趣的现象是,当我拉取四卡服务器时,构建环境是可以运行test的,但是单卡或者双卡服务器时,就无法构建环境,会报Segmentation fault (core dumped)的错,我不知道是否是代码中设置了显卡要求,因为我看论文中提及了四卡。
指令、设置均没有问题,可能是测试数据存在问题,或者环境配置问题(我没有遇到过能运行,但是结果不正确的环境配置情况)。 建议使用我们提供的数据(https://drive.google.com/file/d/1yMbItvFKVaCT93yPWmlP3883XtJ-wSee/view)进行测试。 另外,代码对显卡没有要求,可能是你们ai平台的问题。
感谢大佬的回答,确实是测试集的问题,使用benchmark的就可以复现了。但是这也十分的困惑我,为何按照论文中的方法,对原图使用opencv的bicubic对原图下采样后的数据,无法达到和benchmark一样的性能?
可能是下采样部分的实现问题,你可以用你对应的数据集在其他模型,如SwinIR上进行测试,应该也无法复现结果。
确实如此,但是从理解上来说模型应该有鲁棒性,下采样的方式不应该是30和38这么大的差距,感觉哈哈哈,不然模型的效果不是和下采样的算法绑定了吗
想问一下,放上去的pre-train模型是否是论文数据中的模型呢?跑了一下set5差距很大