920232796 / bert_seq2seq

pytorch实现 Bert 做seq2seq任务,使用unilm方案,现在也可以做自动摘要,文本分类,情感分析,NER,词性标注等任务,支持t5模型,支持GPT2进行文章续写。
Apache License 2.0
1.28k stars 208 forks source link

模型加载输出问题 #47

Open yang41690104 opened 2 years ago

yang41690104 commented 2 years ago

首先,非常感谢大佬能开源这么优秀的工具。 我是个小白,在训练完模型以后,使用test目录下的auto_title_test.py,test_data没有变,为什么输出是17,8,10三个数字?大佬能教下怎么用吗?

920232796 commented 2 years ago

训练的时候如果没问题,感觉不应该阿,test代码改过么。

yang41690104 commented 2 years ago

没有改过,可能是我哪里设置错了,我现在用的chinese_wwm_ext_pytorch,三个例子没变,输出是以下这样: 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 信 ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法 法

920232796 commented 2 years ago

你必须先训练呀 test是测试文件 你训练好了模型 在里面测试 你现在用的是预训练模型吧 不能做自动提取标题。

yang41690104 commented 2 years ago

多谢大佬提醒。 我现在要做英文的摘要提取,使用roberta_auto_title_train.py,模型是从Hugging Face上下载的roberta-base,在self.bert_model.load_pretrain_params(model_path) 这一步报错,UnpicklingError: invalid load key, 'v'.。这个能给看下原因吗?麻烦大佬了

920232796 commented 2 years ago

确定下载的模型没错么,可以进群@我也行 给点报错截图什么的。