ohhhyeahhh / SiamGAT

Code for the paper "Graph Attention Tracking". (CVPR2021)
https://openaccess.thecvf.com/content/CVPR2021/papers/Guo_Graph_Attention_Tracking_CVPR_2021_paper.pdf
139 stars 19 forks source link

关于调超参 #17

Open huchenjie339 opened 3 years ago

huchenjie339 commented 3 years ago

对你们的网络进行小改,比如说,给某层特征加个注意力这种情况,需要自己重新调超参数吗?还是可以直接使用你们提供的超参数?还有一个问题,就是之前跑你们Siamcar的时候,总共跑了20个epoch,日志文件也显示成功跑了20个epoch,但是最终只保留保存了19个参数文件(checkpoint_e1.pth-checkpoint_e19.pth),没有第20个参数文件。这是为什么呢?希望作者帮忙解答下,谢谢。 @twotwo2 @ohhhyeahhh

twotwo2 commented 3 years ago

1.建议在我们提供的超参数值附近搜索,找一个最优超参; 2.当训练总数据可被batch_size整除时,不能保存第20轮的模型,这是我们代码存在的一个小问题,后期会加以优化。现阶段可以通过调整batch_size的方式,保存第20轮的模型。

huchenjie339 commented 3 years ago

@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。

mrlihellohorld commented 2 years ago

您好,请问在多人复杂的场景中只跟踪指定某个人的脸部,您测试过吗?结果如何?

ghostbreaken commented 2 years ago

@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。

你好,这个问题解决了嘛?

twotwo2 commented 2 years ago

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

ghostbreaken commented 2 years ago

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复

dhy1222 commented 1 year ago

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复

你好,请问你这个问题解决了吗