ibadora / summarization_papers

要約論文をまとめるリポジトリです。
3 stars 0 forks source link

Sentence Compression by Deletion with LSTMs, Fillipova+, EMNLP'15 #18

Open AkihikoWatanabe opened 6 years ago

AkihikoWatanabe commented 6 years ago

論文リンク

ibadora commented 6 years ago

説明追加しておきます.

概要

文圧縮をLSTMを用いて定式化する話.

著者

Katja Filippova, Enrique Alfonseca, Carlos A. Colmenares, Lukasz Kaiser, Oriol Vinyals Google Research

手法

2017-12-08 8 23 28

基本的なアイデアとして以下のモデルを提案.

  1. 入力単語embeddingをLSTMで逐次エンコードしていく
  2. 「GO」トークンが入力されたらデコード開始
  3. 入力単語を逐次LSTMに入力し0(単語除去),1(単語保持)を決定していくことで要約を出力

このモデルの拡張として,入力単語embeddingに加え1. 親単語embeddingをconcatして入力するモデルなども実験.

実験設定・使用データ

Filippova & Altun (2013)で構築したデータセットを使用. 新聞記事の1文目とヘッドラインを要約対とみなしている.

結果

LSTMを用いたモデル化は既存手法(Crammer & Singer, 2003)よりもROUGE値が向上. 情報を増やしたLSTMモデルはさらに性能が良かった.