LBH1024 / CAN

When Counting Meets HMER: Counting-Aware Network for Handwritten Mathematical Expression Recognition (ECCV’2022 Poster).
MIT License
364 stars 59 forks source link

怎么进行多卡训练 #10

Open costantine20 opened 2 years ago

costantine20 commented 2 years ago

请问怎么进行多卡训练

LBH1024 commented 2 years ago

请问怎么进行多卡训练

你好,论文中的实验都是单卡训练和测试的。至于多卡训练,可以参考PyTorch教程进行修改。根据我们之前的实验,目前代码中的超参数在多卡训练的情况下可能需要调整,否则精度会偏低一些。

Rechargeablezz commented 1 year ago

请问怎么进行多卡训练

你好,论文中的实验都是单卡训练和测试的。至于多卡训练,可以参考PyTorch教程进行修改。根据我们之前的实验,目前代码中的超参数在多卡训练的情况下可能需要调整,否则精度会偏低一些。

您好,我将代码实现了多卡运行(4gpus)总的batchsize为12,请问学习率需要进行相关修改吗,btw我在自己修改超参后与您的结果还是有0.5%的差距,请问您能否提供一些超参的修改建议呢?谢谢

yazheng0307 commented 1 year ago

请问怎么进行多卡训练

你好,论文中的实验都是单卡训练和测试的。至于多卡训练,可以参考PyTorch教程进行修改。根据我们之前的实验,目前代码中的超参数在多卡训练的情况下可能需要调整,否则精度会偏低一些。

您好,我将代码实现了多卡运行(4gpus)总的batchsize为12,请问学习率需要进行相关修改吗,btw我在自己修改超参后与您的结果还是有0.5%的差距,请问您能否提供一些超参的修改建议呢?谢谢

您好,请教一下代码如何实现的多卡训练?😊