ibadora / summarization_papers

要約論文をまとめるリポジトリです。
3 stars 0 forks source link

CTSUM: Extracting More Certain Summaries for News Articles, Wan+, SIGIR'14 #17

Open AkihikoWatanabe opened 6 years ago

AkihikoWatanabe commented 6 years ago

論文URL

AkihikoWatanabe commented 6 years ago

要約を生成する際に、情報の”確実性”を考慮したモデルCTSUMを提案しましたという論文(今まではそういう研究はなかった)

"However, it seems that Obama will not use the platform to relaunch his stalled drive for Israeli-Palestinian peace"

こういう文は、"It seems"とあるように、情報の確実性が低いので要約には入れたくないという気持ち。

FactBankのニュースコーパスから1000 sentenceを抽出し、5-scaleでsentenceの確実性をラベルづけ。 このデータを用いてSVRを学習し、sentenceの確実性をoutputする分類器を構築 affinity-propagationベース(textrank, lexrankのような手法)手法のaffinityの計算(edge間の重みのこと。普通はsentence同士の類似度とかが使われる)を行う際に、情報の確実性のスコアを導入することで確実性を考慮した要約を生成

DUC2007のMDSデータセットで、affinity計算の際に確実性を導入する部分をablationしたモデル(GRSUM)と比較したところ、CTSUMのROUGEスコアが向上した。 また、自動・人手評価により、生成された要約に含まれる情報の確実性を評価したところ、GRSUMをoutperformした

AkihikoWatanabe commented 6 years ago

解説スライド:https://www.slideshare.net/akihikowatanabe3110/ctsum-extracting-more-certain-summaries-for-news-articles 論文:https://dl.acm.org/citation.cfm?id=2609559

AkihikoWatanabe commented 6 years ago

SIGIRでは珍しい、要約に関する研究 情報の確実性を考慮するという、いままであまりやられていなかった部分にフォーカスしたのはおもしろい 「アイデアはおもしろいし良い研究だが、affinity weightが変化するということは、裏を返せばdamping factorを変更してもそういう操作はできるので、certaintyを考慮したことに意味があったのかが完全に示せていない。」という意見があり、なるほどと思った。

AkihikoWatanabe commented 6 years ago

モデルの評価自体は、複数文書要約で行なっているが、単一文書要約でも適用可能なモデル