Open changzipeng opened 8 months ago
您好,作者姐姐/哥哥,有个问题想请教一下,我在RT-DETR的pytorch版本中用下面这条指令进行分布式训练,每一轮都会进行eval吗?因为我现在只有双卡的3090Ti,训练时间挺长的,还没有得到结果,所以想请教一下,还有每一轮的pth模型都会自动保存吗? torchrun --nproc_per_node=4 tools/train.py -c configs/rtdetr/rtdetr_r50vd_6x_coco.yml 还有一个问题想请教一下,我在损失函数中增加了一些新的损失,损失下降很缓慢,比如100次迭代loss只下降大概2个点,刚开始训的时候损失是两百多,如果不加我删改的损失,纯RT-DETR损失刚开始只有四十多,我是不是把自己增加的损失改小点权重比较好呀?
每个epoch都会eval, 默认是每个epoch也都会保存参数的。训练过程中打印的log会显示当前epoch还剩多少时间的
比例貌似有点失调 可以调一下系数 一般保证模型训练到中后期时候各类loss相差不要太大 ( 仅供参考
您好,作者姐姐/哥哥,有个问题想请教一下,我在RT-DETR的pytorch版本中用下面这条指令进行分布式训练,每一轮都会进行eval吗?因为我现在只有双卡的3090Ti,训练时间挺长的,还没有得到结果,所以想请教一下,还有每一轮的pth模型都会自动保存吗? torchrun --nproc_per_node=4 tools/train.py -c configs/rtdetr/rtdetr_r50vd_6x_coco.yml 还有一个问题想请教一下,我在损失函数中增加了一些新的损失,损失下降很缓慢,比如100次迭代loss只下降大概2个点,刚开始训的时候损失是两百多,如果不加我删改的损失,纯RT-DETR损失刚开始只有四十多,我是不是把自己增加的损失改小点权重比较好呀?