Open LLLiHaotian opened 10 months ago
请问,在用bert-base-case、chinese-bert-wwm-ext、chinese-roberta-wwm-ext、chinese-roberta-wwm-ext-large这几个预训练模型跑多标签分类实验的时候都没问题,为什么使用roberta-xlarge-wwm-chinese-cluecorpussmall这个预训练模型跑多标签分类实验,在训练过程中一直 accuracy:0.0000 micro_f1:0.0000 macro_f1:0.0000
为什么会出现这种现象?求解答
roberta-xlarge-wwm-chinese-cluecorpussmal 可能要修改transformers加载该模型的方式
请问,在用bert-base-case、chinese-bert-wwm-ext、chinese-roberta-wwm-ext、chinese-roberta-wwm-ext-large这几个预训练模型跑多标签分类实验的时候都没问题,为什么使用roberta-xlarge-wwm-chinese-cluecorpussmall这个预训练模型跑多标签分类实验,在训练过程中一直 accuracy:0.0000 micro_f1:0.0000 macro_f1:0.0000
为什么会出现这种现象?求解答