lulu0913 / VRKG4Rec

This is the PyTorch Implementation for our model VRKG4Rec (WSDM'23)
19 stars 1 forks source link

在论文对比实验中KGIN的参数 #4

Closed newfsyyy closed 1 year ago

newfsyyy commented 1 year ago

你好,请问KGIN的实验是如何进行的,我采用了MCCLK论文中固定采样方式8:2分别生成训练集和测试集,我的随机数种子为2023,然后进行训练,其中epoch设置为1000,batch为1024,dim为64,lr为1e-4,test_batch 128这些参数我没有改动,在多轮训练中RKG4Rec在Recall@20中能到达接近30%多的性能,但KGIN我尝试多个参数,在100次的epoch的Recall@20中总是维持在10%-12%之间,甚至会出现性能下降,我很想知道如何进行基线的实验,非常感谢

lulu0913 commented 1 year ago

请问您用的是不是我们开源的数据集

newfsyyy commented 1 year ago

请问您用的是不是我们开源的数据集

你好,我是用的该论文代码提供的开源数据集,一共两个(movie和last-fm),其中movie直接提供了从rating_final中采取80%训练数据train.pkl,后面为了能够使用不同的负采样方式的论文做对比,我根据8:2比例重新从论文提供的源数据ratings_final划分出训练集,当然这也造成了一些问题,比如有个用户历史记录为空,但我训练后也能达到论文的性能,但是基线性能就无法达到,因为设备计算能力有限,训练是在个人pc上完成的,所以很想请教一下参数的设置,非常感谢

lulu0913 commented 1 year ago

对KGIN的复现我们用的是KGIN论文中提供的训练参数,没有做改变,具体参数设定您可以参考KGIN论文的附录部分。其中seed设定为2020

newfsyyy commented 1 year ago

对KGIN的复现我们用的是KGIN论文中提供的训练参数,没有做改变,具体参数设定您可以参考KGIN论文的附录部分。其中seed设定为2020

你好,谢谢您的帮助,我已经找到问题原因