Closed codertimo closed 4 years ago
기본적으로 VAE를 사용하여서 문장을 reconstruction 하는 loss 를 학습에 사용합니다,.
기존의 VAE 와 다른 점은 Encoding 시에 Content, Style latent variable 를 분리한다는 점이며, decoding 시에는 이 두 분리된 variable 을 concat 하여 사용합니다.
이때 분리된 content 와 style latent varaiable 의 space 를 완벽하게 분리하기 위해서 서로 상호 보완적인 4가지 loss 를 설계합니다.
Flow
각 loss 설명
각 mini-batch 별로 학습 순서를 나누어서 학습합니다.
foreach mini-batch do
2 minimize Jdis(s)(θdis(s)) w.r.t. θdis(s);
3 minimize Jdis(c)(θdis(c)) w.r.t. θdis(c);
4 minimize Jovr w.r.t. θE, θD, θmul(s), θmul(c);
5 end
어떤 내용의 논문인가요? 👋
Abstract (요약) 🕵🏻♂️
This paper tackles the problem of disentangling the latent representations of style and content in language models. We propose a simple yet effective approach, which incorporates auxiliary multi-task and adversarial objectives, for style prediction and bag-of-words prediction, respectively. We show, both qualitatively and quantitatively, that the style and content are indeed disentangled in the latent space. This disentangled latent representation learning can be applied to style transfer on non-parallel corpora. We achieve high performance in terms of transfer accuracy, content preservation, and language fluency, in comparison to various previous approaches.
이 논문을 읽어서 무엇을 배울 수 있는지 알려주세요! 🤔
레퍼런스의 URL을 알려주세요! 🔗
https://www.aclweb.org/anthology/P19-1041/