Open Power886 opened 3 years ago
您好,感谢提问。
我们在这里 提供了 在下游zh-ontonotes4 NER数据集上,Fine-tune ChineseBERT预训练模型的数据,代码,和脚本。麻烦请您尝试一下。
一般情况下,如果large-scale pretrain model+classifier能够表现正常,则large-scale pretrain model+CRF也应该可以正常训练。
请您参照GlyceBertForTokenClassification看是哪里出现了问题。
感谢!
下接crf为啥loss一直降不下去