cfiken / paper-reading

34 stars 3 forks source link

[2019] Pretraining Methods for Dialog Context Representation Learning #28

Open cfiken opened 4 years ago

cfiken commented 4 years ago

0. 論文

タイトル

Pretraining Methods for Dialog Context Representation Learning

リンク

https://arxiv.org/abs/1906.00414

著者

Shikib Mehri, Evgeniia Razumovskaia, Tiancheng Zhao, Maxine Eskenazi

投稿日付

ACL 2019

1. どんなもの?

対話文脈の表現学習ための事前学習(教師なし学習の目的関数)について調査した研究。 既存の事前学習モデルは言語モデルをベースにしており、token レベルでの表現を得られるが、対話では複数ターンの文脈が必要になる。token レベルではなく discourse レベルの表現が学習できる事前学習のプロトコル4つ(うち2つは新たに提案)の方法について実験、分析を行った。

2. 先行研究と比べてどこがすごい?

文レベルの理解が必要になる対話ドメインをターゲットとして、discourse レベルを学習できるような既存の事前学習プロトコル2つと、新たに提案した2つの計4つについて調査・実験・分析を行っている。 word レベルの研究は多いが、対話に特化した事前学習手法についてその性能を調査した例は初。

3. 技術や手法のキモはどこ?

事前学習の目的関数として、次の4つを試す。

また、次の下位タスクで性能を見る。

4. どうやって有効だと検証した?

(1) 事前学習 + finetuning による性能、(2) 収束性、 (3) finetuning 時のデータが少ない場合の性能、(4) ドメイン汎化性能、の4点で性能を検証。

5. 議論はある?

6. 次に読むべき論文は?

cfiken commented 4 years ago