wangqiangneu / MT-PaperReading

Record my paper reading about Machine Translation and other related works.
36 stars 2 forks source link

20-Arxiv-Multilingual Denoising Pre-training for Neural Machine Translation #51

Open wangqiangneu opened 4 years ago

wangqiangneu commented 4 years ago

简介

把BART应用到了multilingual NMT上。#50里BART只是在英文上预训练的,这里把BART用到了CC25 corpus(包含25个语种的单语数据)。具体做法很简单,还是BART的noise构造方式,但是每个batch中采样不同的语种,每个语种被采样的权重$\lambda_i=\frac{1}{p_i} \cdot \frac{p_i^{\alpha}}{\sum_j{p_j^\alpha}}$,$\alpha=0.7$。每次一个语种被采样到,类似BART,也是document的输入(包含多个句子,从而支持document-level MT)。句子间被</s>分割,document结尾加<LANG_ID>标记语种。其他的就跟BART没啥区别了。

论文信息

总结