MCG-NJU / VideoMAE

[NeurIPS 2022 Spotlight] VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training
https://arxiv.org/abs/2203.12602
Other
1.35k stars 136 forks source link

ucf101,hmdb51 #122

Open kffeng opened 5 months ago

kffeng commented 5 months ago

感谢您们优秀的工作,我想知道在Table 4中,在ucf101以及hmdb51数据集迁移的结果,是在k400上预训练800epoch还是1600epochs的权重?

censhallwe commented 3 months ago

请问,您知道是怎么练出来的了吗?我这边试着用提供的脚本在UCF-101上训练,但精度没有达到96.1%,我这边显卡每个GPU的batch_size最大只能到12,可能是这个原因导致的,如果我想得到96.1%的模型精度,请问我需要怎么做呢?或者可以麻烦作者更新一下MODEL_ZOO吗?辛苦了!@yztongzhan