gmftbyGMFTBY / MultiTurnDialogZoo

Multi-turn dialogue baselines written in PyTorch
MIT License
162 stars 23 forks source link

关于ubuntu数据集,seq2seqNoAttention效果太好 #15

Open Mrwangkedong opened 2 years ago

Mrwangkedong commented 2 years ago

我按照Daildydialog预处理那样处理了ubuntu,得到了3800000条数据,其中max_len按照给到的默认值(或平均值,效果都是seq2seqNoAttention> hred)。但是按照您的代码跑下的结果: seq2seq: BLEU-1:0.1361 BLEU-2:0.0493 BLEU-3:0.0221 BLEU-4:0.0108

hred: BLEU-1:0.1307 BLEU-2:0.0486 BLEU-3:0.0214 BLEU-4:0.0108

取消attention,我是直接去了input_outputs[-1]。 请问您使用的时候遇到过这个问题吗?或者作者您认为原因是什么,期待您的回复~