lyuwenyu / RT-DETR

[CVPR 2024] Official RT-DETR (RTDETR paddle pytorch), Real-Time DEtection TRansformer, DETRs Beat YOLOs on Real-time Object Detection. 🔥 🔥 🔥
Apache License 2.0
2.61k stars 303 forks source link

有关decoder的消融实验 #249

Open lkxxxxx opened 7 months ago

lkxxxxx commented 7 months ago

论文中decoder的消融实验介绍模型可以无需重新训练而使用不同的解码器层,请问一下我需要调整哪里的参数来更换decoder层数? 我在 num_decoder_layers直接更换decoder层数时验证模型会报错。 image image

lyuwenyu commented 7 months ago

不用改结构,推理只需要调整eval_idx就行

lkxxxxx commented 7 months ago

@lyuwenyu 好的,非常感谢。

20231211 commented 4 days ago

@lkxxxxx 你好,我也尝试了用不同层的decoder检测头的检测结果作为最终的结果,发现第4层decoder的mAP最高,最后一层反而第一些,请问您有出现过这样的情况吗?

lkxxxxx commented 4 days ago

@20231211 会出现这种情况,层数并不是却多越好。

20231211 commented 4 days ago

我在想这样的情况是因为训练轮数过多吗?因为在早期的训练时是最后一个decoder的检测结果最好。 因为前面层的结果更好,我有尝试直接在训练时就减少decoder层数,但这样效果会变差。 我现在有点懵,如果我要前面的层的结果我该如何解释我的做法,如果我减少decoder层数我觉得可能是因为监督不够?所以效果变差,我能听听您的建议或者看法吗?谢谢!

---原始邮件--- 发件人: @.> 发送时间: 2024年11月11日(周一) 晚上10:57 收件人: @.>; 抄送: @.**@.>; 主题: Re: [lyuwenyu/RT-DETR] 有关decoder的消融实验 (Issue #249)

@20231211 会出现这种情况,层数并不是却多越好。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>

lkxxxxx commented 4 days ago

@20231211 这个我也说不准,挺久没有研究这个模型了。可能和数据集的大小也有关系,多做实验验证吧

20231211 commented 3 days ago

我能问问您当时的数据集的大小吗?是多分类的目标检测任务吗?

---原始邮件--- 发件人: @.> 发送时间: 2024年11月12日(周二) 下午2:02 收件人: @.>; 抄送: @.**@.>; 主题: Re: [lyuwenyu/RT-DETR] 有关decoder的消融实验 (Issue #249)

@20231211 这个我也说不准,挺久没有研究这个模型了。可能和数据集的大小也有关系,多做实验验证吧

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>

lkxxxxx commented 3 days ago

@20231211 数据集大概2400张,8:2,单分类。

20231211 commented 3 days ago

谢谢!

---原始邮件--- 发件人: @.> 发送时间: 2024年11月12日(周二) 下午4:07 收件人: @.>; 抄送: @.**@.>; 主题: Re: [lyuwenyu/RT-DETR] 有关decoder的消融实验 (Issue #249)

@20231211 数据集大概2400张,8:2,单分类。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>