Open wangqiangneu opened 5 years ago
自动后编辑模型(Auto Post-Edit)。也是一种利用target monolingual data的方法。把Y -> X'(利用y2x系统) -> Y'(利用x2y系统),构造出大量的(Y', Y)的平行数据。然后在已有译文的基础上,不看原文信息,直接通过后编辑模型转换翻译结果
En-De
En
De
De-En
back-translation
BT
translationese
natural
简介
自动后编辑模型(Auto Post-Edit)。也是一种利用target monolingual data的方法。把Y -> X'(利用y2x系统) -> Y'(利用x2y系统),构造出大量的(Y', Y)的平行数据。然后在已有译文的基础上,不看原文信息,直接通过后编辑模型转换翻译结果
En-De
为例,测试集是找一半自然的En
文本和De
文本,然后分别找人翻译,最后混在一起作为En-De
和De-En
的测试集。但这么做,导致原始数据是En
的部分测试集,由于译文的De
是人工翻译的,并不像正常的De
那么自然,从而导致在这部分测试集上应用APE后BLEU狂掉,而另一半原始数据是De
的测试集上会有明显的BLEU提高En
的那部分测试集BLEU上掉很多back-translation
,跟baseline相比BT
的方式不用区分测试集的来源问题,都是稳定的涨。虽然APE也可以跟BT
互补,在BT
的结果上应用,但是得区分测试集来源,但看bleu在原始是En
的测试集部分bleu狂掉。论文信息
总结
translationese
,那根据测试集的来源不同,针对target是natural的那部分测试集,我把训练数据里translationese
的译文用APE过一遍,再训练一个NMT系统,专门翻译这部分测试集;同理,对于target是translationese
的部分测试集,我把训练数据集里的natural
的译文用反向的APE让他变得不真实,会怎么样?BT
应该是有帮助的。这里延伸出来一个想法:translationese
,我可以用APE刷成natural,也就是说原始的双语数据训两个系统是一样的,但是我们改造成不同方向的系统训练数据不一样,效果如何呢?感觉得人工评价,BLEU的话参考划分测试集的方法