wangqiangneu / MT-PaperReading

Record my paper reading about Machine Translation and other related works.
36 stars 2 forks source link

19-EMNLP-Understanding Data Augmentation in Neural Machine Translation: Two Perspectives towards Generalization #34

Open wangqiangneu opened 5 years ago

wangqiangneu commented 5 years ago

简介

分析data augmentation方法的一致性。动机是说不同的DA方法,比如RAML, Switchout, Self-training(实际就是distillation),Target-agree(right-to-left)以及Back-translation,在不同数据集上的表现不一致(有的这个bleu高,有的那个bleu高),用single-reference的bleu衡量的话,consistence很差。这篇就是想研究用啥手段能measure不同DA方法的consistence。采用两个角度来分析,input sensitive以及prediction margin。但是,比较蛋疼的是只在bitext上比较了几种DA的方法,没有在更常用的monolingual data上实验。

论文信息

总结

Epsilon-Lee commented 4 years ago

嗯~总结得很好,大部分认可: