Closed showerage closed 3 years ago
您好,我想这个问题大概是因为transformers库的版本不同导致的,我实验所使用的版本是2.1.1,我猜您是更高的版本?
您可以和我一样使用2.1.1版本的transformers来运行代码;或者将get_entity_embedding.py中的63行L63中strict设置为False,即改成Model.load_state_dict(torch.load(bert_model_path, map_location='cpu'),strict=False)
,这样应该也是可以的
希望这能帮到您,如果上述方法不凑效或者您有其他问题的话,欢迎随时和我联系
感谢回答,我切换低对应版本后,成功运行了。想尝试一下DBP15K以外的数据集,请问训练这个BERT模型大概需要多长时间?
在DBP15K上,在我们的设备上,印象里basic bert unit部分大概用时是1-2小时左右
您好,根据您在百度网盘中提供的预训练模型无法正常运行。 在运行get_entity_embedding.py 的时候出现了如下报错: