Open huchenjie339 opened 3 years ago
1.建议在我们提供的超参数值附近搜索,找一个最优超参; 2.当训练总数据可被batch_size整除时,不能保存第20轮的模型,这是我们代码存在的一个小问题,后期会加以优化。现阶段可以通过调整batch_size的方式,保存第20轮的模型。
@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。
您好,请问在多人复杂的场景中只跟踪指定某个人的脸部,您测试过吗?结果如何?
@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。
你好,这个问题解决了嘛?
@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件。
@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件。
作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复
@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件。
作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复
你好,请问你这个问题解决了吗
对你们的网络进行小改,比如说,给某层特征加个注意力这种情况,需要自己重新调超参数吗?还是可以直接使用你们提供的超参数?还有一个问题,就是之前跑你们Siamcar的时候,总共跑了20个epoch,日志文件也显示成功跑了20个epoch,但是最终只保留保存了19个参数文件(checkpoint_e1.pth-checkpoint_e19.pth),没有第20个参数文件。这是为什么呢?希望作者帮忙解答下,谢谢。 @twotwo2 @ohhhyeahhh