caiyuanhao1998 / Retinexformer

"Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement" (ICCV 2023) & (NTIRE 2024 Challenge)
https://arxiv.org/abs/2303.06705
MIT License
925 stars 82 forks source link

你好,在LOLv1上的复现精度和论文精度差异大,论文是25.16,我只得到了23.16,我没有改动任何代码,请问我需要怎么调整呢? #123

Closed LQchen1 closed 1 month ago

LQchen1 commented 1 month ago

image

caiyuanhao1998 commented 1 month ago

你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。

如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下

LQchen1 commented 1 month ago

你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。

如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下

@caiyuanhao1998 谢谢你,我这边没有RTX8000,我再多跑几次吧,我是在A100上跑的结果,按照原始的batchsize的话显存占用很低, num_worker_per_gpu: 8 batch_size_per_gpu: 8 mini_batch_sizes: [8]
我尝试改了这三个参数,分别为32,64,64,服务器的cpu的核心是80,但是数据加载非常慢,这是什么原因呢?

Bin-ze commented 3 weeks ago

好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上训练的。您请按照我们的 readme 里面的步骤配置环境并执行环境。

如果觉得我们的repo有用的话,帮忙点点star支持一下

你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。

如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下

您好,我尝试LOLV1上训练您的模型,但是得到了跟楼上同样的结果。 我注意到您一直在强调您使用RTX 8000得到了论文中的指标。我的训练是在4090上进行的。 我想知道,不同显卡之间的差异可以有这么大吗? 非常棒的工作!同时也期待您的解惑

Houruizhi commented 4 days ago

好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上训练的。您请按照我们的 readme 里面的步骤配置环境并执行环境。 如果觉得我们的repo有用的话,帮忙点点star支持一下

你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。 如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下

您好,我尝试LOLV1上训练您的模型,但是得到了跟楼上同样的结果。 我注意到您一直在强调您使用RTX 8000得到了论文中的指标。我的训练是在4090上进行的。 我想知道,不同显卡之间的差异可以有这么大吗? 非常棒的工作!同时也期待您的解惑

+1. 原程序一点都没改,在LOL-V1上,PSNR 22.5383