920232796 / bert_seq2seq

pytorch实现 Bert 做seq2seq任务,使用unilm方案,现在也可以做自动摘要,文本分类,情感分析,NER,词性标注等任务,支持t5模型,支持GPT2进行文章续写。
Apache License 2.0
1.28k stars 208 forks source link

预训练权重问题 #9

Open yangwei-nlp opened 4 years ago

yangwei-nlp commented 4 years ago

utils.py下的load_model_params函数只加载了Bert的权重(3个embedding层以及12个transformer块),但是没有加载decoder层(比如seq2seq任务的BertLMPredictionHead)参数,这是为什么? (推测加载后效果会更好。) https://github.com/920232796/bert_seq2seq/blob/74c5e36521fd2f4833941d367508379ec9395947/bert_seq2seq/utils.py#L42-L50

920232796 commented 4 years ago

你可以试试,不过bert加载预训练模型参数的话,就是只加载这些,因为bert不只是做seq2seq,还会做别的任务,比如文本分类,这时候就根本不需要加载decoder层了吧~

920232796 commented 4 years ago

好像有个unilm预训练模型 应该就是跟你说的一样 加载了你说的这些,我这个是使用的bert预训练模型。

yangwei-nlp commented 4 years ago

好勒,谢谢,基本了解了~

920232796 commented 4 years ago

ok