Closed pxxgogo closed 4 years ago
你好,可以参考:https://github.com/ymcui/Chinese-BERT-wwm/issues/76 另外,如果希望做完形填空的预测,可以用目标领域的自由文本做二次pretrain,效果上应该不会有太大损失。
好的,感谢!
@ymcui 哈喽,我再确认一下哈,是不是最新的huggingFaces里面hfl/chinese-bert-wwm-ext 和 hfl/chinese-robert-wwm-ext两个tf的模型也没有训练MLM层?我试了试发现结果都是错乱的?
您好,我在用您的chinese-roberta-wwm-ext-large模型做MLM任务时发现好像有bug。我分别尝试过google/bert的inference代码以及huggingface的Transformers工具的inference代码,好像都有明显的问题。以下是调用Transformers的代码:
输出是: