Closed LQchen1 closed 1 month ago
你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。
如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下
你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。
如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下
@caiyuanhao1998 谢谢你,我这边没有RTX8000,我再多跑几次吧,我是在A100上跑的结果,按照原始的batchsize的话显存占用很低,
num_worker_per_gpu: 8
batch_size_per_gpu: 8
mini_batch_sizes: [8]
我尝试改了这三个参数,分别为32,64,64,服务器的cpu的核心是80,但是数据加载非常慢,这是什么原因呢?
好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上训练的。您请按照我们的 readme 里面的步骤配置环境并执行环境。
如果觉得我们的repo有用的话,帮忙点点star支持一下
你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。
如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下
您好,我尝试LOLV1上训练您的模型,但是得到了跟楼上同样的结果。 我注意到您一直在强调您使用RTX 8000得到了论文中的指标。我的训练是在4090上进行的。 我想知道,不同显卡之间的差异可以有这么大吗? 非常棒的工作!同时也期待您的解惑
好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上训练的。您请按照我们的 readme 里面的步骤配置环境并执行环境。 如果觉得我们的repo有用的话,帮忙点点star支持一下
你好,感谢关注,我们在 LOL-v2-real 以及 FiveK 数据集上的结果是在 3090 上训练的,其余模型是在 RTX 8000 上边训练的。请按照我们的 readme 里面的步骤配置环境并执行环境。 如果觉得我们的 repo 有用的话,帮忙点点 star 支持一下
您好,我尝试LOLV1上训练您的模型,但是得到了跟楼上同样的结果。 我注意到您一直在强调您使用RTX 8000得到了论文中的指标。我的训练是在4090上进行的。 我想知道,不同显卡之间的差异可以有这么大吗? 非常棒的工作!同时也期待您的解惑
+1. 原程序一点都没改,在LOL-V1上,PSNR 22.5383