Open ymym3412 opened 5 years ago
An Empirical Study of Building a Strong Baseline for Constituency Parsing Jun Suzuki, Sho Takase, Hidetaka Kamigaito, Makoto Morishita, and Masaaki Nagata
Constituency Parsing向けにseq2seqを拡張して強力なベースラインを作る
seq2seqに拡張を加えることでSOTAモデルに迫る性能を引き出していること
ベースラインとして用いられるseq2seqにいくつかの拡張を加える。 サブワードの特徴量を組み込む、unkトークンの取り扱い、出力長の制御、アンサンブルなどを組み込んだseq2seqで既存のConstituency Parsingモデルと比較を行った。
F値ベースで既存のSOTAに迫る数値を示した
RNNGなどと違い、Constituency Parsingに特化した情報を挿入しなくてもSOTAに匹敵する性能を引き出せており、seq2seqが暗黙的に構文解析情報を獲得できるほどの潜在能力を持っていることを示唆している
[1609.09552] Controlling Output Length in Neural Encoder-Decoders Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, Manabu Okumura
0. 論文
An Empirical Study of Building a Strong Baseline for Constituency Parsing Jun Suzuki, Sho Takase, Hidetaka Kamigaito, Makoto Morishita, and Masaaki Nagata
1. どんなもの?
Constituency Parsing向けにseq2seqを拡張して強力なベースラインを作る
2. 先行研究と比べてどこがすごい?
seq2seqに拡張を加えることでSOTAモデルに迫る性能を引き出していること
3. 技術や手法のキモはどこ?
ベースラインとして用いられるseq2seqにいくつかの拡張を加える。 サブワードの特徴量を組み込む、unkトークンの取り扱い、出力長の制御、アンサンブルなどを組み込んだseq2seqで既存のConstituency Parsingモデルと比較を行った。
4. どうやって有効だと検証した?
F値ベースで既存のSOTAに迫る数値を示した
5. 議論はある?
RNNGなどと違い、Constituency Parsingに特化した情報を挿入しなくてもSOTAに匹敵する性能を引き出せており、seq2seqが暗黙的に構文解析情報を獲得できるほどの潜在能力を持っていることを示唆している
6. 次に読むべき論文は?
[1609.09552] Controlling Output Length in Neural Encoder-Decoders Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, Manabu Okumura