Open agatan opened 4 years ago
mobile 対応、quantization、named tensor などなど、結構熱い release だった。発表の映像残ってそうだからいつか見たい。
autoregressive な NMT は遅いし suboptimal な解に陥りがち。 この論文では、 non-autoregressive な Transformer を定義している。 knowledge distillation などで autoregressive transformer のちからを借りつつではあるが、 comparable な精度を達成しつつ 3x くらい速いモデルができた。
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. #19
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!