Closed hrshy0629 closed 3 years ago
嗨,伙计,我是用你的代码学习(reeadme的链接)bert+lstm+crf的时候,发现跑出来的pred_num = 0?我没有改动任何操作。这样的结果正常吗?我是否还需要改动其他的代码?
改参数,微调才能有正常的结果
但是我很好奇,run_pretraining这个脚本是重新训练bert的吗?
嗨,伙计,我是用你的代码学习(reeadme的链接)bert+lstm+crf的时候,发现跑出来的pred_num = 0?我没有改动任何操作。这样的结果正常吗?我是否还需要改动其他的代码?