Closed fathouse closed 4 years ago
是否存在老版本pytorch_transformers与新版本transformers的兼容问题
首先,你的模型应该是正确加载的了我们的模型,因为显示
All the weights of BertModel were initialized from the model checkpoint at hfl/chinese-roberta-wwm-ext.
另外,我这边在torch 1.5.0 + transformers 3.0.2 也测试通过了(linux系统)。
>>> from transformers import BertTokenizer, BertModel
>>> bert_tokenizer = BertTokenizer.from_pretrained("hfl/chinese-roberta-wwm-ext")
>>> bert = BertModel.from_pretrained("hfl/chinese-roberta-wwm-ext")
最后,并不是pytorch_transformers和新版transformers的问题,因为旧版是不支持快速加载的。 另外看到你这个是windows系统,我不是很清楚是不是因为OS的问题导致的。 如果你加载其他人发布的模型也是这个问题的话,建议你去transformers的issue中进行提问。
感谢您的回答,我在加载基线模型如bert-base-chinese,bert-base-uncased等模型是没有问题的,那看来是我的代码或者设置中出现了问题。
我使用以下代码 `from transformers import BertTokenizer, BertModel
bert = BertModel.from_pretrained("hfl/chinese-roberta-wwm-ext")
bert_tokenizer = BertTokenizer.from_pretrained("hfl/chinese-roberta-wwm-ext")` 却显示
请问您知道为什么吗,网络没有问题,可以在线下载模型,但是下载完了依旧显示找不到模型 `transformers==2.9.0/3.0.2``都尝试过