parallel data 없이 text style transfer 를 하는 기법들이 실질적인 성공을 거두었지만, 적은 양의 데이터에서는 좋지 못한 성능을 보여 주었습니다. 본 논문에서는 domain-adaptation 을 style transfer 에 적용해 다량의 데이터를 보유하고 있는 style-transfer 테스크를 활용해 low-resource 테스크를 학습하는 방식을 제안합니다.
다량의 데이터는 도메인 이동에 이점이 있지만, style-transfer에는 이점이 없다는 문제점을 갖고 있습니다. 이 문제를 해결하기 위해서, 도메인에 관한 정보를 교환하여 도메인에 적응하는 style transfer 모델을 제안합니다.
style transfer 이전에 source 도메인(대량의 데이터)으로 부터 다음 항목들을 학습하게 하였습니다.
텍스트에서 style 정보와, 컨텐츠적인 정보를 구분하기
최대한 본래의 컨텐츠를 보존하기
domain-aware manner 안에서 style 을 adaptively(어떤 의미인지 아직 모름) transfer 하기
sentiment and formality 테스크를 소수의 non-parallel data 를 갖고 있는 테스크들를 풀도록 하여, 본 모델의 성능을 평가하였습니다.
Abstract (요약) 🕵🏻♂️
Text style transfer without parallel data has achieved some practical success. However, in the scenario where less data is available, these methods may yield poor performance. In this paper, we examine domain adaptation for text style transfer to leverage massively available data from other domains. These data may demonstrate domain shift, which impedes the benefits of utilizing such data for training. To address this challenge, we propose simple yet effective domain adaptive text style transfer models, enabling domain-adaptive information exchange. The proposed models presumably learn from the source domain to: (i) distinguish stylized information and generic content information; (ii) maximally preserve content information; and (iii) adaptively transfer the styles in a domain-aware manner. We evaluate the proposed models on two style transfer tasks (sentiment and formality) over multiple target domains where only limited non-parallel data is available. Extensive experiments demonstrate the effectiveness of the proposed model compared to the baselines.
이 논문을 읽어서 무엇을 배울 수 있는지 알려주세요! 🤔
low-resource style-transfer 문제를 보다 효과적으로 풀 수 있는 방법을 알 수 있어요
domain adaption 기법을 style-transfer에 사용하는 방법에 대해 알 수 있어요
parallel 데이터셋으로 학습된 모델을 활용해 none-parallel 데이터 테스크를 푸는 방법을 알 수 있어요
어떤 내용의 논문인가요? 👋
Abstract (요약) 🕵🏻♂️
Text style transfer without parallel data has achieved some practical success. However, in the scenario where less data is available, these methods may yield poor performance. In this paper, we examine domain adaptation for text style transfer to leverage massively available data from other domains. These data may demonstrate domain shift, which impedes the benefits of utilizing such data for training. To address this challenge, we propose simple yet effective domain adaptive text style transfer models, enabling domain-adaptive information exchange. The proposed models presumably learn from the source domain to: (i) distinguish stylized information and generic content information; (ii) maximally preserve content information; and (iii) adaptively transfer the styles in a domain-aware manner. We evaluate the proposed models on two style transfer tasks (sentiment and formality) over multiple target domains where only limited non-parallel data is available. Extensive experiments demonstrate the effectiveness of the proposed model compared to the baselines.
이 논문을 읽어서 무엇을 배울 수 있는지 알려주세요! 🤔
레퍼런스의 URL을 알려주세요! 🔗
https://arxiv.org/abs/1908.09395