Hlings / AsyFOD

(CVPR2023) The PyTorch implementation of the "AsyFOD: An Asymmetric Adaptation Paradigm for Few-Shot Domain Adaptive Object Detection".
MIT License
29 stars 3 forks source link

代码配置中的layer4,layer6,layer9是什么意思? #14

Open zhouzheng1123 opened 4 months ago

zhouzheng1123 commented 4 months ago

作者你好,感谢你开源这项工作,之前的AcroFOD我也在上面做了一些工作,最近准备在这项代码中研究新的工作。我有一些问题想请教您,1)代码配置中的layer4,layer6,layer9是什么意思?2)请问能否在readme中完整的说明整个的训练测试流程,以及每个训练配置文件中名称代表的含义,如dissim_to_sim等等,我知道这涉及到文中的消融实验部分,我怕自己的理解有误,所以想请您再详细的在readme中说明一下,如果您能抽空回答并完善这项开源工作,我将不胜感激!

Hlings commented 4 months ago

Hi 感谢对这个文章的关注!1) 这里的layer代表利用yolov5 backbone的哪一层输出特征来进行MMD alignment; 2)感谢建议!我会在一周左右在readme中做更详细的说明和论文涉及的部分解释。

heyuhhh commented 2 months ago

作者你好,请问一下现在整理好了吗,希望你能更新一下不同场景的运行脚本。

这么多train.py不知道哪一个是最终使用的版本,以及对于不同的实验设置,相应的batch size是多大呢,因为我看之前的issue有提到不同的batch size可能会影响收敛的速度?希望你能在百忙之中抽空解答一下,谢谢~

Hlings commented 2 months ago

hello heyuhhh and zhouzheng1123 非常不好意思,train.py可以先用这个https://github.com/Hlings/AsyFOD/blob/main/train_files_for_abl/train_select_ins_dissim_to_sg-sim-tar_layer9.py 能够reproduce结果。batchsize在Cityscapes上是12 or 8,在Sim10K到C和KITTI到C都是32 or 16。Batchsize在Foggy Cityscapes上比较敏感,在其他数据集上性能差的不会很多(根据我之前的实验经验)。

如果还有问题可以通过邮箱gaoyp23@mail2.sysu.edu.cn联系我,我应该能够更快回复。

heyuhhh commented 1 month ago

感谢作者耐心的回复~ 我现在在复现sim10k->city的实验结果,但是使用上面说的train_select_ins_dissim_to_sg-sim-tar_layer9.py只能得到58%mAP左右的结果。 我使用的数据集是从百度网盘下载下来的,batchsize是24,数据增强是mm4.yaml,其他的代码基本上没有动过。请问一下作者大大还需要什么需要注意的地方嘛?

Hlings commented 2 weeks ago

感谢作者耐心的回复~ 我现在在复现sim10k->city的实验结果,但是使用上面说的train_select_ins_dissim_to_sg-sim-tar_layer9.py只能得到58%mAP左右的结果。 我使用的数据集是从百度网盘下载下来的,batchsize是24,数据增强是mm4.yaml,其他的代码基本上没有动过。请问一下作者大大还需要什么需要注意的地方嘛?

该问题已经和提问者沟通解决。因为小样本,数据采样会带来一定的性能波动,多次采样后的性能和论文里报告的性能基本一致,对应采样的数据和在sim10k->city的训练设置已在readme中进行更新。