Open KungFuPandaPro opened 3 months ago
推理时模型forward不会调用辅助分支。swin large和tiny的速度差异有详细的数字对比吗
推理时模型forward不会调用辅助分支。swin large和tiny的速度差异有详细的数字对比吗
我用的4090显卡做的推理,推理尺寸我设置为640x640,swim-L为backbone的模型推理速度9.4/it,swin-tiny模型为backbone的推理速度为10.4it/s,在训练时候两种backbone的模型占据的显存也差不多。我现在奇怪的就是两个模型保存的权重大小差异很大,分别为900M和249M,但是为什么占据的显存和推理速度方面查不太大,比较着急,很期待您的回复解答 config_co_detr_use.zip
推理时模型forward不会调用辅助分支。swin large和tiny的速度差异有详细的数字对比吗
我用的4090显卡做的推理,推理尺寸我设置为640x640,swim-L为backbone的模型推理速度9.4/it,swin-tiny模型为backbone的推理速度为10.4it/s,在训练时候两种backbone的模型占据的显存也差不多。我现在奇怪的就是两个模型保存的权重大小差异很大,分别为900M和249M,但是为什么占据的显存和推理速度方面查不太大,比较着急,很期待您的回复解答 config_co_detr_use.zip
可以看看总的infer时间中,backbone infer分别占多少
我用的是co_dino_5scale_swin_l_16xb1_16e_o365tococo.py这个配置做的swin-l为backbone的模型训练,训练后模型权重900M,我用swin-tiny进行替换swin-l进行训练,模型权重变为240多M,但是推理速度居然相差不大,这是为什么?进行推理时,模型自动把辅助头去除了吗?还是要手工去除?