LeeSureman / Batch_Parallel_LatticeLSTM

Chinese NER using Lattice LSTM. Reproduction for ACL 2018 paper.
129 stars 16 forks source link

batch_size不能太大吗? #14

Open czy36mengfei opened 4 years ago

czy36mengfei commented 4 years ago

我用的是人民日报的数据训练的,batch_size为64,效果不好,请您那边训练的时候,batch_size对训练结果的影响怎么样?

LeeSureman commented 4 years ago

对于NER任务的超参数选择来说,batch_size是不能太大的

czy36mengfei commented 4 years ago

请问按您的实验,batch_size的范围是多少,为多少的时候最好?batch_size小训练起来太慢了~ @LeeSureman

LeeSureman commented 4 years ago

原作者的代码里选择为4个数据集选择的batch size都是1,我的代码里也有针对其中三个数据集的batch size设置,我没有做过人民日报的实验

czy36mengfei commented 4 years ago

@LeeSureman 谢谢。 所以您里面的设置是您的代码中得分最高的batch_size?即ontonote,weibo时batch_size=10得分比batch_size为1高,resume的batch_size为1时得分最高?

if args.dataset == 'ontonote': args.batch = 10 args.lr = 0.045 elif args.dataset == 'resume': args.batch = 1 args.lr = 0.015 elif args.dataset == 'weibo': args.batch = 10 args.gaz_dropout = 0.1 args.embed_dropout = 0.1 args.output_dropout = 0.1 elif args.dataset == 'weibo_old': args.embed_dropout = 0.1 args.output_dropout = 0.1

LeeSureman commented 4 years ago

是的

czy36mengfei commented 4 years ago

是的

好的,谢谢。