ZhuiyiTechnology / WoBERT

以词为基本单位的中文BERT
Apache License 2.0
458 stars 70 forks source link

请问您们是如何在RoBERTa-wwm-ext上继续进行预训练的呢 #3

Closed yangzhch6 closed 1 year ago

yangzhch6 commented 4 years ago

RoBERTa-wwm-ext的词典跟您就不一样,想知道具体怎么做的,因为最近也在做预训练的工作

ZhuiyiTechnology commented 4 years ago

很简单啊,删除冗余的token的embedding,补充新的token的embedding(初始化)。就是修改一下embedding层的权重罢了。