Open 1a2cjitenfei opened 2 years ago
我的与苏神的结果一致
你可以尝试重新训练,或者更换bert-base-chinese为hfl/chinese-roberta-wwm-ext
训练了好几次,改用了hfl/chinese-roberta-wwm-ext还是差着一点呀
你好, 我的结果也是这样的, 请问除了改成roberta 还有什么办法吗?
接上一条... 请问超参数可以公布一下吗?
改用了hfl/chinese-roberta-wwm-ext也还是差着一点 我记得是10个还是33个epoch后模型就已经收敛了
是的, 我调一下超参数, batch_size=128, best_f1=0.7923
训练了33个epoch得到下面的结果: avg_precision: 0.7733637138826565, avg_recall: 0.7902737446924301, avg_f1: 0.7806660288039 Best F1: 0.7875311899437892
这个结果是不是跟bert+crf比还差一点点呢? https://github.com/lonePatient/BERT-NER-Pytorch 这个里面的BERT+CRF
Accuracy (entity) | Recall (entity) | F1 score (entity) 0.7977 | 0.8177 | 0.8076