DeXie0808 / GCH

Graph Convolutional Network Hashing for Cross-Modal Retrieval, IJCAI2019
13 stars 3 forks source link

关于运行结果 #5

Open annientare opened 3 years ago

annientare commented 3 years ago

这是我训练到12个Epoch的结果,使用的是mirflick25k,16bit,和论文里有较大的差距,而且似乎已经收敛 ...test map: map(i->t): 0.597, map(t->i): 0.571 ...test map: map(t->t): 0.699, map(i->i): 0.574 请问您知道原因吗?或者要训练多少个Epoch才能达到论文里的效果?

Lukangkang123 commented 3 years ago

我运行的是mirflickr25k数据集64位的,跑了一天一夜,结果也是0.5多

FutureTwT commented 3 years ago

在flickr和NUSWIDE数据集上的16、32、64我测试的结果还不错,flickr上有个0.8左右的map;但是在128甚至更高哈希码位数上,效果和楼上效果差不多,map比较低;我检查了训练过程,训练后期会出现nan的问题,请问一下,是不是有我没有考虑到的问题或者对数据输入需要进行特定的预处理?

Lukangkang123 commented 3 years ago

在flickr和NUSWIDE数据集上的16、32、64我测试的结果还不错,flickr上有个0.8左右的map;但是在128甚至更高哈希码位数上,效果和楼上效果差不多,map比较低;我检查了训练过程,训练后期会出现nan的问题,请问一下,是不是有我没有考虑到的问题或者对数据输入需要进行特定的预处理?

请问你训练时间怎么样?一个epoch要几个小时吗

FutureTwT commented 3 years ago

在flickr和NUSWIDE数据集上的16、32、64我测试的结果还不错,flickr上有个0.8左右的map;但是在128甚至更高哈希码位数上,效果和楼上效果差不多,map比较低;我检查了训练过程,训练后期会出现nan的问题,请问一下,是不是有我没有考虑到的问题或者对数据输入需要进行特定的预处理?

请问你训练时间怎么样?一个epoch要几个小时吗

是的,训练时间有点长

FutureTwT commented 3 years ago

这是我训练到12个Epoch的结果,使用的是mirflick25k,16bit,和论文里有较大的差距,而且似乎已经收敛 ...test map: map(i->t): 0.597, map(t->i): 0.571 ...test map: map(t->t): 0.699, map(i->i): 0.574 请问您知道原因吗?或者要训练多少个Epoch才能达到论文里的效果?

您好,请问一下您的flickr数据集是作者提供的么?

iTomxy commented 2 years ago

这是我训练到12个Epoch的结果,使用的是mirflick25k,16bit,和论文里有较大的差距,而且似乎已经收敛 ...test map: map(i->t): 0.597, map(t->i): 0.571 ...test map: map(t->t): 0.699, map(i->i): 0.574 请问您知道原因吗?或者要训练多少个Epoch才能达到论文里的效果?

您好,请问一下您的flickr数据集是作者提供的么?

你好,请问你用作者提供的数据集能跑出论文的结果吗?我用它默认的参数跑了 flickr25k 16bit 的实验,用它代码保存的结果重测,只有:

Mean.h5 是 #2LaobaiK 老哥发的,FLICKR-25K.mat 是之前蒋庆远DCMH 给的(SSAH 的数据可能也是从这来的,而这份代码看结构应该是来自 SSAH)。

不知道是不是 FLICKR-25K.mat 有不同。或者你可以分享一下你从作者这下载的 FLICKR-25K.mat 吗?百度云什么的,我邮箱是:hackeritom@163.com,感谢。

FutureTwT commented 2 years ago

@iTomxy 我做过该实验,用一样的数据和Mean文件,不过迭代轮次好像对结果影响比较大,我记得好像跑了一两天左右

zzidlezz commented 2 years ago

我运行的是mirflickr25k数据集64位的,跑了一天一夜,结果也是0.5

请问您怎么解决的这个问题呢,我现在也是跑了很久但是结果是0.554不变

FutureTwT commented 2 years ago

NAN错误了吧

zzidlezz commented 2 years ago

update text net using label 3%|▎ | 1/39 [00:00<00:09, 3.95it/s]...Loss_T_label:16.195 28%|██▊ | 11/39 [00:02<00:07, 3.74it/s]...Loss_T_label:16.929 54%|█████▍ | 21/39 [00:05<00:04, 3.73it/s]...Loss_T_label:18.315 79%|███████▉ | 31/39 [00:08<00:02, 3.72it/s]...Loss_T_label:19.172 100%|██████████| 39/39 [00:10<00:00, 3.72it/s] update text net using label 3%|▎ | 1/39 [00:00<00:10, 3.79it/s]...Loss_T_label:17.881 28%|██▊ | 11/39 [00:02<00:07, 3.75it/s]...Loss_T_label:17.463 54%|█████▍ | 21/39 [00:05<00:04, 3.73it/s]...Loss_T_label:19.186 79%|███████▉ | 31/39 [00:08<00:02, 3.72it/s]...Loss_T_label:16.362 100%|██████████| 39/39 [00:10<00:00, 3.72it/s] 0%| | 0/39 [00:00<?, ?it/s]update text net using label 3%|▎ | 1/39 [00:00<00:09, 3.84it/s]...Loss_T_label:17.835 28%|██▊ | 11/39 [00:02<00:07, 3.66it/s]...Loss_T_label:16.317 54%|█████▍ | 21/39 [00:05<00:04, 3.77it/s]...Loss_T_label:18.686

========================================================== ==== Test map in all ====

[!] Load failed... 100%|██████████| 16/16 [00:04<00:00, 3.56it/s] 100%|██████████| 16/16 [00:00<00:00, 473.88it/s] 100%|██████████| 141/141 [00:51<00:00, 2.76it/s] 100%|██████████| 141/141 [00:00<00:00, 842.04it/s] 0%| | 0/100 [00:00<?, ?it/s]================================================== ...test map: map(i->t): 0.554, map(t->i): 0.554 ...test map: map(t->t): 0.554, map(i->i): 0.554

我选取了一部分训练的情况,您·能看出是什么地方的问题吗,不是NAN的问题

update image net using label ...Loss_I_label:17.066 28%|██▊ | 11/39 [00:04<00:09, 2.80it/s]...Loss_I_label:16.375 54%|█████▍ | 21/39 [00:07<00:06, 2.81it/s]...Loss_I_label:19.573 79%|███████▉ | 31/39 [00:11<00:02, 2.79it/s]...Loss_I_label:16.943 100%|██████████| 39/39 [00:14<00:00, 2.75it/s] 0%| | 0/39 [00:00<?, ?it/s]update image net using label ...Loss_I_label:16.204 28%|██▊ | 11/39 [00:03<00:10, 2.80it/s]...Loss_I_label:16.054 54%|█████▍ | 21/39 [00:07<00:06, 2.79it/s]...Loss_I_label:18.157 79%|███████▉ | 31/39 [00:11<00:02, 2.77it/s]...Loss_I_label:17.748 100%|██████████| 39/39 [00:14<00:00, 2.78it/s] 0%| | 0/39 [00:00<?, ?it/s]update image net using label ...Loss_I_label:18.240 28%|██▊ | 11/39 [00:03<00:10, 2.74it/s]...Loss_I_label:16.670 54%|█████▍ | 21/39 [00:07<00:06, 2.81it/s]...Loss_I_label:17.409 79%|███████▉ | 31/39 [00:11<00:02, 2.80it/s]...Loss_I_label:17.180 100%|██████████| 39/39 [00:14<00:00, 2.77it/s] update image net using label 3%|▎ | 1/39 [00:00<00:13, 2.83it/s]...Loss_I_label:17.009 28%|██▊ | 11/39 [00:03<00:10, 2.77it/s]...Loss_I_label:18.456 54%|█████▍ | 21/39 [00:07<00:06, 2.77it/s]...Loss_I_label:18.324 79%|███████▉ | 31/39 [00:11<00:02, 2.77it/s]...Loss_I_label:16.015

sph2333 commented 1 year ago

这是我训练到12个Epoch的结果,使用的是mirflick25k,16bit,和论文里有较大的差距,而且似乎已经收敛 ...test map: map(i->t): 0.597, map(t->i): 0.571 ...test map: map(t->t): 0.699, map(i->i): 0.574 请问您知道原因吗?或者要训练多少个Epoch才能达到论文里的效果?

您好,请问一下您的flickr数据集是作者提供的么?

你好,请问你用作者提供的数据集能跑出论文的结果吗?我用它默认的参数跑了 flickr25k 16bit 的实验,用它代码保存的结果重测,只有:

  • I -> T:0.7104
  • T -> I:0.7477

Mean.h5 是 #2LaobaiK 老哥发的,FLICKR-25K.mat 是之前蒋庆远DCMH 给的(SSAH 的数据可能也是从这来的,而这份代码看结构应该是来自 SSAH)。

不知道是不是 FLICKR-25K.mat 有不同。或者你可以分享一下你从作者这下载的 FLICKR-25K.mat 吗?百度云什么的,我邮箱是:hackeritom@163.com,感谢。

请问你们用的FLICKR-25K.mat数据集可以分享给我一份吗,我找来的这个数据集用不了,谢谢您!我的邮箱是1531671375@qq.com

iTomxy commented 1 year ago

@sph2333 这里有:MIR-Flickr25K数据集预处理