zjukg / KoPA

[Paper][ACM MM 2024] Making Large Language Models Perform Better in Knowledge Graph Completion
MIT License
145 stars 8 forks source link

请问kge模型的训练过程。 #29

Closed estuday closed 10 months ago

estuday commented 10 months ago

您好, 论文中Structural Embedding Pre-training应该就是指代码中的kge_model吧,但是我没有找到如何训练嵌入模型,请问能否提供嵌入模型的训练代码?谢谢

Zhang-Each commented 10 months ago

你好,训练KGE模型的代码可以参考OpenKE[1], NeuralKG[2]等开源的知识图谱表示学习库来使用,我们在实验过程中是采用OpenKE来训练的,后续我们会补充这一部分的代码,你也可以直接使用数据集中已经预训练好的embedding进行实验。

[1] OpenKE: https://github.com/thunlp/OpenKE

[2] NeuralKG: https://github.com/zjukg/NeuralKG

estuday commented 10 months ago

你好,训练KGE模型的代码可以参考OpenKE[1], NeuralKG[2]等开源的知识图谱表示学习库来使用,我们在实验过程中是采用OpenKE来训练的,后续我们会补充这一部分的代码,你也可以直接使用数据集中已经预训练好的embedding进行实验。

[1] OpenKE: https://github.com/thunlp/OpenKE

[2] NeuralKG: https://github.com/zjukg/NeuralKG

十分感谢,我想问一下,代码中num_prefix是指图谱结构知识经过映射后,到文本空间的长度吗?是不是就像prefix tuning中prefix token的长度。

Zhang-Each commented 10 months ago

是的,可以这么理解