quantum00549 / SoftMaskedBert

《Spelling Error Correction with Soft-Masked BERT》论文复现
32 stars 3 forks source link

想问一下如何进行预测? #1

Open travel-go opened 3 years ago

travel-go commented 3 years ago

如题,成功跑起来了代码,想问一下怎么进行模型预测,直接打印对应的预测概率吗

quantum00549 commented 3 years ago

参照计算准确率的那一步,取argmax之后decode就行,也可以取topk再decode,毕竟有些位置的字,完全可行的不止一个,这样也可以提高容错率

travel-go commented 3 years ago

我预测出的结果基本上都是乱码,感觉整个模型训练有点问题,你有离线预测过结果吗

quantum00549 commented 3 years ago

我这边没问题,已经运用了,乱码是指[mask]过多,还是[unk]过多?我实际中是用另一份数据训练的,这个只是样例

travel-go commented 3 years ago

我这边用的是新闻的数据集跑了一下,预测出来的结果都是 “#”这种特殊符号,感觉模型都没有学到对应的信息

quantum00549 commented 3 years ago

这个就得好好排查了,可能是没收敛,也可能预测代码有问题

travel-go commented 3 years ago

没收敛不太可能,我训练了19个epoch,预测代码我排查过,topN的返回结果基本上都是错的;感觉问题很奇怪

travel-go commented 3 years ago

方便加个微信聊聊?

hxc123fau commented 2 years ago

赞一个,代码比别家要好不少

ovn-qian commented 2 years ago

数据中的训练和测试语料格式不一样

huhuhu5798 commented 2 years ago

你好 这个问题解决了吗

huhuhu5798 commented 2 years ago

我也是遇到了同样的问题,请你解决了吗

没收敛不太可能,我训练了19个epoch,预测代码我排查过,topN的返回结果基本上都是错的;感觉问题很奇怪

lewispony commented 2 years ago

参照计算准确率的那一步,取argmax之后decode就行,也可以取topk再decode,毕竟有些位置的字,完全可行的不止一个,这样也可以提高容错率

代码是跑通了,但是测试数据是怎么进行测试的?如果想查看预测的文本可以怎么查看呢?

myaijarvis commented 2 years ago
epoch: 20, batch: 75, train loss: 0.1110184316833814%, train detector accuracy: 0.7455034374286511, train corrector_accuracy: 0.9996765519165884

同问怎么进行预测,代码细节没看懂