kosugi11037 / bert-int

46 stars 20 forks source link

提供的预训练模型无法正常使用。 #9

Closed showerage closed 3 years ago

showerage commented 3 years ago

您好,根据您在百度网盘中提供的预训练模型无法正常运行。 在运行get_entity_embedding.py 的时候出现了如下报错: image

kosugi11037 commented 3 years ago

您好,我想这个问题大概是因为transformers库的版本不同导致的,我实验所使用的版本是2.1.1,我猜您是更高的版本? 您可以和我一样使用2.1.1版本的transformers来运行代码;或者将get_entity_embedding.py中的63行L63中strict设置为False,即改成Model.load_state_dict(torch.load(bert_model_path, map_location='cpu'),strict=False) ,这样应该也是可以的 希望这能帮到您,如果上述方法不凑效或者您有其他问题的话,欢迎随时和我联系

showerage commented 3 years ago

感谢回答,我切换低对应版本后,成功运行了。想尝试一下DBP15K以外的数据集,请问训练这个BERT模型大概需要多长时间?

kosugi11037 commented 3 years ago

在DBP15K上,在我们的设备上,印象里basic bert unit部分大概用时是1-2小时左右