Closed nietao2 closed 5 years ago
请问使用Chinese-BERT-wwm做fine-tuning的时候需要用LTP做分词吗?
不需要的,和普通的BERT一样,使用的是Char级别的Tokenizer。 Whole Word Masking只影响预训练阶段的Mask方式,并不改变下游任务的输入方式。
谢谢!
为什么fine-tune的时候不需要分词?
请问使用Chinese-BERT-wwm做fine-tuning的时候需要用LTP做分词吗?