Open NonvolatileMemory opened 5 years ago
效果不好可能两个原因
Cunxiao Du notifications@github.com 于2019年3月13日周三 上午10:47写道:
哥们您好,我也是做nlp的。 自己尝试复现了一下,发现效果不好,我的结构就是q,a都过lstm(两边共享的参数),然后maxpooling得到向量,cos之后triplet loss,但是只跑到了0。5,而且跑得非常慢,我一个q采样了100个negative a,想问一下啊您的模型快不快呢?我大约要一天才能收敛,参数都是我从别人论文里面找来的。。。
— You are receiving this because you are subscribed to this thread. Reply to this email directly, view it on GitHub https://github.com/white127/QA-deep-learning/issues/29, or mute the thread https://github.com/notifications/unsubscribe-auth/ABffULqACgig-ABVsNJmMS1wnEIBReHwks5vWGbHgaJpZM4bsR9F .
感觉不是参数的问题,因为我都是用的一篇iclr的论文里面的,老哥我想问一下您的模型收敛的快吗?谢谢您的回复,十分感谢~
不过我的框架也很您不太一样,我是用MXNET的,感觉这种数据集比较小,很有可能就出现这种问题
神经网络的模型就是调参要麻烦些,有几个思路:
Cunxiao Du notifications@github.com 于2019年3月13日周三 下午1:51写道:
不过我的框架也很您不太一样,我是用MXNET的,感觉这种数据集比较小,很有可能就出现这种问题
— You are receiving this because you commented. Reply to this email directly, view it on GitHub https://github.com/white127/QA-deep-learning/issues/29#issuecomment-472289282, or mute the thread https://github.com/notifications/unsubscribe-auth/ABffUI9tq0mxBPqNsjg98FJPF9_KZsODks5vWJHFgaJpZM4bsR9F .
印象中,LSTM的模型要几个小时吧,在这个数据集上,训练
Cunxiao Du notifications@github.com 于2019年3月13日周三 下午1:51写道:
不过我的框架也很您不太一样,我是用MXNET的,感觉这种数据集比较小,很有可能就出现这种问题
— You are receiving this because you commented. Reply to this email directly, view it on GitHub https://github.com/white127/QA-deep-learning/issues/29#issuecomment-472289282, or mute the thread https://github.com/notifications/unsubscribe-auth/ABffUI9tq0mxBPqNsjg98FJPF9_KZsODks5vWJHFgaJpZM4bsR9F .
那你很快了,我非常慢,可能是哪里有问题了
非常感谢您的回复!!!如果有缘再现实生活中见面,请您吃饭哈哈哈
哥们您好,我也是做nlp的。 自己尝试复现了一下,发现效果不好,我的结构就是q,a都过lstm(两边共享的参数),然后maxpooling得到向量,cos之后triplet loss,但是只跑到了0。5,而且跑得非常慢,我一个q采样了100个negative a,想问一下啊您的模型快不快呢?我大约要一天才能收敛,参数都是我从别人论文里面找来的。。。