wangqiangneu / MT-PaperReading

Record my paper reading about Machine Translation and other related works.
36 stars 2 forks source link

20-ACL-Improving Massively Multilingual Neural Machine Translation and Zero-Shot Translation #61

Open wangqiangneu opened 4 years ago

wangqiangneu commented 4 years ago

简介

对MNMT的改进,包括释放了opus-100的数据集。改进很直接,两个角度:model capacityoff-target(指翻译跑偏成别的语种了,主要发生在zero-shot时)。前者干了三件事:deep network, conditional layernorm(condition是t,也就是目标语语种),以及conditional linear transformation(加到encoder的输出上,条件也是t)。后者则干了一件事,在pre-trained的MNMT上,继续finetune若干步,随机选择一个t' (t' != t),用当前的MNMT做online BT,得到x'。这样,finetune的时候,训练数据中除了已知的(x, y, t)还有(x', y, t)。这相当于告诉模型,不管x是啥,只要我指定了t,你都要给我保证是t的形式,从而避免off-target

有意思的点

论文信息

总结