ShannonAI / ChineseBert

Code for ACL 2021 paper "ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information"
MIT License
543 stars 92 forks source link

ner #21

Open Power886 opened 3 years ago

Power886 commented 3 years ago

下接crf为啥loss一直降不下去

xiaoya-li commented 3 years ago

您好,感谢提问。
我们在这里 提供了 在下游zh-ontonotes4 NER数据集上,Fine-tune ChineseBERT预训练模型的数据,代码,和脚本。麻烦请您尝试一下。 一般情况下,如果large-scale pretrain model+classifier能够表现正常,则large-scale pretrain model+CRF也应该可以正常训练。 请您参照GlyceBertForTokenClassification看是哪里出现了问题。 感谢!