LunaBlack / KGAT-pytorch

328 stars 72 forks source link

Question about pretrain embedding #3

Open WDdeBWT opened 4 years ago

WDdeBWT commented 4 years ago

您好,我想问一下代码里面用到的pretrain embedding是使用TransR训练多轮得到的吗?

WDdeBWT commented 4 years ago

我在代码里没有看到关于训练并保存pretrain embedding的代码,想问一下这一块的实现,如果能够有配套的代码就更好了。感谢

LunaBlack commented 4 years ago

我用的是paper作者在他的github repo中提供的pretrain embedding:https://github.com/xiangwang1223/knowledge_graph_attention_network

我也没有看到他这部分相关的code,建议你在那个repo下提个issue问问。

PS:不用pretrain的效果貌似差很多。

WDdeBWT commented 4 years ago

我用的是paper作者在他的github repo中提供的pretrain embedding:https://github.com/xiangwang1223/knowledge_graph_attention_network

我也没有看到他这部分相关的code,建议你在那个repo下提个issue问问。

PS:不用pretrain的效果貌似差很多。

好的感谢。看您这部分代码写的非常详细,我一只以为是作者团队放出的Pytorch版本。祝您工作&研究顺利

Genius-pig commented 10 months ago

作者好像回复了,但是我依然没有找到在哪。 https://github.com/xiangwang1223/knowledge_graph_attention_network/issues/28 https://github.com/xiangwang1223/knowledge_graph_attention_network/issues/29 https://github.com/xiangwang1223/knowledge_graph_attention_network/issues/20

Keep0828 commented 10 months ago

我看原作者的解释是: In terms of the pretrain step, you can run the BPRMF model and store the MF embeddings under the 'Model/pretrain/'.

Hope it can be helpful. https://github.com/xiangwang1223/knowledge_graph_attention_network/issues/28