Closed msrks closed 1 year ago
いつもどおりEncoderとDecoderからなるSeq2SeqベースのNMT。
Unsupervised = TranslationのInput==Output対応のSentenceを用意しなくていい
EncoderはCross-Linugalな言語モデルのデータセットを使って学習。
Decoderの学習が面白い。以下の2プロセスを交互に繰り返して学習する。
Noiseを加えた(誤らせたSentenceや、順番を入れ替えたSentence)をEncoderに入れて、Encodeする。 Encoded Vectorで元の Sentenceを自己再生するようにさせる。
Language1 --(Shared Enc)--> (Lang2 Dec) --> Language2 --> --> (Shared Enc) --> (Lang1 Dec) --> Language1
と戻してきて、Resonstruction Lossを減らすように学習する。
unsupervised NMTモデルその1(2017-10-30にarxivに投稿、ICLR2018狙い)
https://arxiv.org/abs/1710.11041