Closed littletomatodonkey closed 3 years ago
您好,无需把模型和字典拷贝到当前目录 执行
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased")
会自动下载bert-base-uncased-vocab.txt
和bert-base-uncased.pdparams
文件到$HOME/.paddlenlp/models/bert-base-uncased
路径下并完成tokenizer和model的加载
您好,无需把模型和字典拷贝到当前目录 执行
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased") model = BertModel.from_pretrained("bert-base-uncased")
会自动下载
bert-base-uncased-vocab.txt
和bert-base-uncased.pdparams
文件到$HOME/.paddlenlp/models/bert-base-uncased
路径下并完成tokenizer和model的加载
目前我是希望可以加载自己训练的bert模型,然后发现指定本地文件夹会报错来着,目前是不支持指定本地文件夹路径的加载嘛还是?
目前加载自己的tokenizer和model需要配置config file (tokenizer_config.json
和model_config.json
)
如果自己训练的模型是通过save_pretrained()
接口保存的,便可以通过
tokenizer = BertTokenizer.from_pretrained('/path/to/your/save_pretrained/directory')
model = BertModel.from_pretrained('/path/to/your/save_pretrained/directory')
来加载tokenizer和model
不是通过这个接口来保存的,只是将torch的模型转化过来了,bert的config file在哪里呢?我在repo和~/.paddlenlp目录里没找到
加载bert-base-uncased
的tokenizer和model
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased")
通过save_pretrained()
保存到./trained_model
,./trained_model
包含model_config.json
,model_state.pdparams
,tokenizer_config.json
,vocab.txt
tokenizer.save_pretrained('trained_model')
model.save_pretrained('trained_model')
从包含config file,模型和vocab的路径加载tokenizer和model
tokenizer = BertTokenizer.from_pretrained('trained_model')
model = BertModel.from_pretrained('trained_model')
好的,感谢回复,可以work了~
把模型和字典拷贝到当前目录,运行下面的命令,无法成功构建tokenizer和model tokenizer = BertTokenizer.from_pretrained("bert-base-uncased") model = BertModel.from_pretrained("bert-base-uncased")
提示:
文件夹中包含
bert-base-uncased-vocab.txt
和bert-base-uncased.pdparams