Open cfiken opened 4 years ago
Pretraining Methods for Dialog Context Representation Learning
https://arxiv.org/abs/1906.00414
Shikib Mehri, Evgeniia Razumovskaia, Tiancheng Zhao, Maxine Eskenazi
ACL 2019
対話文脈の表現学習ための事前学習(教師なし学習の目的関数)について調査した研究。 既存の事前学習モデルは言語モデルをベースにしており、token レベルでの表現を得られるが、対話では複数ターンの文脈が必要になる。token レベルではなく discourse レベルの表現が学習できる事前学習のプロトコル4つ(うち2つは新たに提案)の方法について実験、分析を行った。
文レベルの理解が必要になる対話ドメインをターゲットとして、discourse レベルを学習できるような既存の事前学習プロトコル2つと、新たに提案した2つの計4つについて調査・実験・分析を行っている。 word レベルの研究は多いが、対話に特化した事前学習手法についてその性能を調査した例は初。
事前学習の目的関数として、次の4つを試す。
また、次の下位タスクで性能を見る。
leaveAt
destination
(1) 事前学習 + finetuning による性能、(2) 収束性、 (3) finetuning 時のデータが少ない場合の性能、(4) ドメイン汎化性能、の4点で性能を検証。
0. 論文
タイトル
Pretraining Methods for Dialog Context Representation Learning
リンク
https://arxiv.org/abs/1906.00414
著者
Shikib Mehri, Evgeniia Razumovskaia, Tiancheng Zhao, Maxine Eskenazi
投稿日付
ACL 2019
1. どんなもの?
対話文脈の表現学習ための事前学習(教師なし学習の目的関数)について調査した研究。 既存の事前学習モデルは言語モデルをベースにしており、token レベルでの表現を得られるが、対話では複数ターンの文脈が必要になる。token レベルではなく discourse レベルの表現が学習できる事前学習のプロトコル4つ(うち2つは新たに提案)の方法について実験、分析を行った。
2. 先行研究と比べてどこがすごい?
文レベルの理解が必要になる対話ドメインをターゲットとして、discourse レベルを学習できるような既存の事前学習プロトコル2つと、新たに提案した2つの計4つについて調査・実験・分析を行っている。 word レベルの研究は多いが、対話に特化した事前学習手法についてその性能を調査した例は初。
3. 技術や手法のキモはどこ?
事前学習の目的関数として、次の4つを試す。
また、次の下位タスクで性能を見る。
leaveAt
,destination
などの entity を持っている。4. どうやって有効だと検証した?
(1) 事前学習 + finetuning による性能、(2) 収束性、 (3) finetuning 時のデータが少ない場合の性能、(4) ドメイン汎化性能、の4点で性能を検証。
5. 議論はある?
6. 次に読むべき論文は?