Sosuke115 / paper-reading

4 stars 1 forks source link

Ensemble Distillation for Neural Machine Translation [2017] #7

Open Sosuke115 opened 3 years ago

Sosuke115 commented 3 years ago

論文リンク

https://arxiv.org/abs/1702.01802

概要

NMTで知識蒸留を行った論文

手法のキモ

知見メモ

元の翻訳データと教師モデルによる翻訳データは両方使った方が良い

Sosuke115 commented 3 years ago

関連論文