codertimo / paper-log

읽어야 하는 논문들을 관리하고, 읽은 논문들의 기록을 남기는 공간
31 stars 5 forks source link

Style Transformer: Unpaired Text Style Transfer without Disentangled Latent Representation #23

Closed codertimo closed 4 years ago

codertimo commented 4 years ago

어떤 내용의 논문인가요? 👋

Abstract (요약) 🕵🏻‍♂️

Disentangling the content and style in the latent space is prevalent in unpaired text style transfer. However, two major issues exist in most of the current neural models. 1) It is difficult to completely strip the style information from the semantics for a sentence. 2) The recurrent neural network (RNN) based encoder and decoder, mediated by the latent representation, cannot well deal with the issue of the long-term dependency, resulting in poor preservation of non-stylistic semantic content. In this paper, we propose the Style Transformer, which makes no assumption about the latent representation of source sentence and equips the power of attention mechanism in Transformer to achieve better style transfer and better content preservation.

이 논문을 읽어서 무엇을 배울 수 있는지 알려주세요! 🤔

레퍼런스의 URL을 알려주세요! 🔗

https://www.aclweb.org/anthology/P19-1601/

codertimo commented 4 years ago

Motivation

Method

Transformer 구조에 CicleGAN 을 추가한 구조입니다.

총 3가지 loss 를 사용해서 학습을 진행합니다.

Experiment

스크린샷 2020-01-13 오전 12 53 13

Yelp 와 IMDB 데이터셋을 사용하였으며 YELP 에서 SOTA 인 93% 를 달성했습니다.

novelty

codertimo commented 4 years ago

아마 단어 단위의 변화(문장을 그대로 복사하는 대신 sentiment 부분만 변경하는 방식) 은 될 것 같은데 진짜 문장을 바꿀 수 있을까 의문입니다.