codertimo / paper-log

읽어야 하는 논문들을 관리하고, 읽은 논문들의 기록을 남기는 공간
31 stars 5 forks source link

Revision in Continuous Space: Fine-Grained Control of Text Style Transfer #19

Closed codertimo closed 4 years ago

codertimo commented 4 years ago

어떤 내용의 논문인가요? 👋

Abstract (요약) 🕵🏻‍♂️

Typical methods for unsupervised text style transfer often rely on two key ingredients: 1) seeking the explicit disentanglement of the content and the attributes, and 2) troublesome adversarial learning. In this paper, we show that neither of these components is indispensable. We propose a new framework that utilizes the gradients to revise the sentence in a continuous space during inference to achieve text style transfer. Our method consists of three key components: a variational auto-encoder (VAE), some attribute predictors (one for each attribute), and a content predictor. The VAE and the two types of predictors enable us to perform gradient-based optimization in the continuous space, which is mapped from sentences in a discrete space, to find the representation of a target sentence with the desired attributes and preserved content. Moreover, the proposed method naturally has the ability to simultaneously manipulate multiple fine-grained attributes, such as sentence length and the presence of specific words, when performing text style transfer tasks. Compared with previous adversarial learning based methods, the proposed method is more interpretable, controllable and easier to train. Extensive experimental studies on three popular text style transfer tasks show that the proposed method significantly outperforms five state-of-the-art methods.

이 논문을 읽어서 무엇을 배울 수 있는지 알려주세요! 🤔

레퍼런스의 URL을 알려주세요! 🔗

https://arxiv.org/abs/1905.12304

codertimo commented 4 years ago

Motivatation

Method

스크린샷 2020-01-12 오후 5 30 21

위 수식을 보면, decoding 에 넣을 z' 을 iteration 을 돌면서 update 를 하는 것을 볼 수 있습니다. 이를 해석하면 z' 을 구하기 위해서 각 attribute classifier 의 loss 와 BoW loss 를 z' 에 대하여 gradient 를 구해 우리가 원하는 style과 content 를 보유한 z' 을 만들도록 하고 있습니다. 그리고 이 loss 가 일정 threshold 이하가 되도록 학습을 하고 있습니다.

이를 통해서 우리가 원하는 style 을 갖으며, 기존의 content 를 preservation 한 결과를 얻을 수 있습니다.

Experiment

스크린샷 2020-01-13 오전 12 44 17

전체적인 실험을 통해서 style-classification rate 는 기존과 비슷하게 가져가면서, fluency 에서는 높은 성능을 보여주는 성과를 거두었습니다. Amazone Review 데이터셋에서는 사람이 레이블링 한 데이터보다 fluency가 높은 성과를 기록하였습니다.

codertimo commented 4 years ago

본 논문이 #18 과 접근 방식이 매우 동일하다는 점에 있어서 novelty 에 대한 의심이 있습니다. 다만 두 논문중 어떤 연구가 선행 되었는지는 확실하지 않습니다.