Open kongbia opened 2 years ago
你是单GOT训练出来只有64.6? 我改进的模型在GOT上训练出来效果也不好
我也是,大概这个结果63.7-64.9浮动,达不到作者的精度
试一下在验证集上epoch test和调参
您好!我在测试GOT-10K的代码时,显示没有json包,GOT-10K是在线评测的,没有json文件,请问您是如何解决的?
您好!我在测试GOT-10K的代码时,显示没有json包,GOT-10K是在线评测的,没有json文件,请问您是如何解决的?
你好,我想请问一下你训练500epoch花费的时间大概是多长呢
您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题
你是单GOT训练出来只有64.6? 我改进的模型在GOT上训练出来效果也不好
你好,请问你解决这个问题了吗
我也是,大概这个结果63.7-64.9浮动,达不到作者的精度
你好,请问你解决这个问题了吗
您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题
建议长时减少训练epoch,我在跑后来的one-stream跟踪器也存在类似的问题,最后发现减少epoch可以解决。。。判断应该就是数据集减少训练时间不变过拟合了。。。。不过后来我没试过transt这个训练代码了,你可以试试减少到1/3训练轮次。
您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置? 您好,请问你最后怎么解决的,我也遇到这个问题
建议长时减少训练epoch,我在跑后来的one-stream跟踪器也存在类似的问题,最后发现减少epoch可以解决。。。判断应该就是数据集减少训练时间不变过拟合了。。。。不过后来我没试过transt这个训练代码了,你可以试试减少到1/3训练轮次。
你好,可以加个qq聊一下吗,谢谢,1449178051
您好,我在4张titanv上训练got10k, batch32,初始学习率扩大两倍,epoch 总共500,在epoch 250下降学习率,最后结果只有64.6。请问如何该配置?