nlpyang / PreSumm

code for EMNLP 2019 paper Text Summarization with Pretrained Encoders
MIT License
1.29k stars 465 forks source link

bert-base-uncased #246

Open wyk816 opened 1 year ago

wyk816 commented 1 year ago

博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。

CSgaoan commented 1 year ago

博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。

拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下: image 你还需要在model_builder.py文件做如何修改 image

就是路径问题,多改就好

CSgaoan commented 1 year ago

博主您好,本地bert-base-uncased预训练模型应该放在哪个路径下?需要修改什么吗?期待您的回复。

拙见如下:你将下载的模型放在temp_dir路径下,然后在train_abstractive.py和train_extractive.py的223行253行330行的(可能有几行偏差,将路径都改为绝对路径temp_dir) 再在文件的首部加上from others.tokenization import BertTokenizer 图片如下: image 你还需要在model_builder.py文件做如何修改 image

就是路径问题,多改就好