Closed thankslife closed 1 year ago
我把语料换成中文数据集CMEIE,预训练模型bert-base-Chineseese,为什么效果这么差,pure F值还能达到0.6呢, 下面是pl-marker ner结果 {“dev_bestf1”: 0.08358639461309555, “f1”: 0.08358639461309555, “f1overlap”: 0.003212469772290498, “precision”: 0.04741821366428135, “recall”: 0.3523116438356164}
您也有尝试将语料换成CMeIE的数据进行测试么?最新的效果有提升么请问
我把语料换成中文数据集CMEIE,预训练模型bert-base-Chineseese,为什么效果这么差,pure F值还能达到0.6呢, 下面是pl-marker ner结果 {“dev_bestf1”: 0.08358639461309555, “f1”: 0.08358639461309555, “f1overlap”: 0.003212469772290498, “precision”: 0.04741821366428135, “recall”: 0.3523116438356164}
810304762
这个代码没有在中文上进行过实验
我把语料换成中文数据集CMEIE,预训练模型bert-base-chinese,为什么效果这么差,pure F值还能达到0.6呢, 下面是pl-marker ner结果 {"dev_bestf1": 0.08358639461309555, "f1": 0.08358639461309555, "f1overlap": 0.003212469772290498, "precision": 0.04741821366428135, "recall": 0.3523116438356164}