zjukg / MoMoK

[Paper][Preprint 2024] Mixture of Modality Knowledge Experts for Robust Multi-modal Knowledge Graph Completion
https://arxiv.org/abs/2405.16869
15 stars 1 forks source link

关于关系embeding的疑惑 #5

Closed liangwangshou closed 4 weeks ago

liangwangshou commented 1 month ago

您好,方便问一下该代码中,关系embedding的数量为什么要乘以2,是因为作为有向图么?那么我看训练集好像只训练了一个方向,但是验证和测试怎么两个方向都要呢?还是说该图谱作为一个无向图进行处理,那直接用一个对应关系的unique数量不就好了,为什么还要乘以2?

Zhang-Each commented 4 weeks ago

因为在训练的时候给每个关系生成了反向的关系-r,并且把原有的三元组h, r, t变成了两个三元组,一个还是h, r, t,另一个是t, -r, h,这样两个三元组都进行尾实体的预测,训练和测试都是这样,相当于正反两个方向都进行了,KGC模型中这种做法很常见

liangwangshou commented 4 weeks ago

您好,真诚的感谢您的回答。祝国庆快乐O(∩_∩)O

------------------ 原始邮件 ------------------ 发件人: "Yichi @.>; 发送时间: 2024年10月2日(星期三) 晚上10:34 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [zjukg/MoMoK] 关于关系embeding的疑惑 (Issue #5)

因为在训练的时候给每个关系生成了反向的关系-r,并且把原有的三元组h, r, t变成了两个三元组,一个还是h, r, t,另一个是t, -r, h,这样两个三元组都进行尾实体的预测,训练和测试都是这样,相当于正反两个方向都进行了,KGC模型中这种做法很常见

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>