chenxin-dlut / TransT

Transformer Tracking (CVPR2021)
GNU General Public License v3.0
572 stars 104 forks source link

got10k训练结果 #100

Open kongbia opened 2 years ago

kongbia commented 2 years ago

您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置?

JianTao-zjut commented 2 years ago

你是单GOT训练出来只有64.6? 我改进的模型在GOT上训练出来效果也不好

AllesOderNicht commented 2 years ago

我也是,大概这个结果63.7-64.9浮动,达不到作者的精度

chenxin-dlut commented 2 years ago

试一下在验证集上epoch test和调参

zy233435435 commented 1 year ago

您好!我在测试GOT-10K的代码时,显示没有json包,GOT-10K是在线评测的,没有json文件,请问您是如何解决的?

JianTao-zjut commented 1 year ago

您好!我在测试GOT-10K的代码时,显示没有json包,GOT-10K是在线评测的,没有json文件,请问您是如何解决的?

https://github.com/HonglinChu/SiamTrackers 这里面有

kkkk1997 commented 1 year ago

你好,我想请问一下你训练500epoch花费的时间大概是多长呢

cheehowH commented 1 year ago

您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题

cheehowH commented 1 year ago

你是单GOT训练出来只有64.6? 我改进的模型在GOT上训练出来效果也不好

你好,请问你解决这个问题了吗

cheehowH commented 1 year ago

我也是,大概这个结果63.7-64.9浮动,达不到作者的精度

你好,请问你解决这个问题了吗

JianTao-zjut commented 1 year ago

您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题

建议长时减少训练epoch,我在跑后来的one-stream跟踪器也存在类似的问题,最后发现减少epoch可以解决。。。判断应该就是数据集减少训练时间不变过拟合了。。。。不过后来我没试过transt这个训练代码了,你可以试试减少到1/3训练轮次。

cheehowH commented 1 year ago

您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题

建议长时减少训练epoch,我在跑后来的one-stream跟踪器也存在类似的问题,最后发现减少epoch可以解决。。。判断应该就是数据集减少训练时间不变过拟合了。。。。不过后来我没试过transt这个训练代码了,你可以试试减少到1/3训练轮次。

你好,可以加个qq聊一下吗,谢谢,1449178051