ZhuiyiTechnology / t5-pegasus

中文生成式预训练模型
Apache License 2.0
557 stars 84 forks source link

关于“以mT5为基础架构和初始权重”的疑问 #36

Open andysdc opened 2 years ago

andysdc commented 2 years ago

由于做了tokenizer的优化,词典数量有25万变成了5万,mT5的encoder和decoder部分的词典embedding都变化了,请问原来mT5的初始权重是不是没法用了呢?