Open fujiso opened 6 years ago
深層強化学習を用いて文単純化. モデルはよくあるencoder-decoder attentionモデル. 報酬として,文の単純さ, 文法の正しさ,流暢さ(文の自然さ)の3つの重み付き和を導入. BLEUなどの自動評価の結果はイマイチだが,人手評価では最も高い評価を得ている.
Xingxing Zhang and Mirella Lapata
http://aclweb.org/anthology/D17-1062
報酬について.
文分割と文圧縮を明示的にモデル化することで,文書に適用出来るようにしたい
評価や語彙単純化で別々のencoder学習してて,すごい学習重そう. 同一encoderではダメだったのだろうか.
概要
深層強化学習を用いて文単純化.
モデルはよくあるencoder-decoder attentionモデル.
報酬として,文の単純さ, 文法の正しさ,流暢さ(文の自然さ)の3つの重み付き和を導入. BLEUなどの自動評価の結果はイマイチだが,人手評価では最も高い評価を得ている.
著者
Xingxing Zhang and Mirella Lapata
リンク
http://aclweb.org/anthology/D17-1062
貢献
手法
報酬について.
cos類似度.別でLSTM auto encoderを学習し,その中間層を文の特徴として使用. ( そんな重いことしなくても,doc2vecで十分な気がする)
文の生成確率を正規化したもの. 生成確率は単純な文(正解データ)だけで学習したLSTMを使用.
Future work
文分割と文圧縮を明示的にモデル化することで,文書に適用出来るようにしたい