Open ymym3412 opened 5 years ago
Will it Blend? Blending Weak and Strong Labeled Data in a Neural Network for Argumentation Mining Eyal Shnarch, Carlos Alzate, Lena Dankin, Martin Gleize, Yufang Hou, Leshem Choshen, Ranit Aharonov, Noam Slonim
Weak Labeled Data(WLD)とStrong Labeled Data(SLD)の両方を活用してArgumentation Miningを行う手法
WLDとSLDの両方をうまく活用する学習手法を提案した
NoisyなラベルがついたWeak Labeled Dataと、アノテータがラベルを付けたStrong Labeled Dataを活用してモデルを学習させる手法。 学習を2つのステップに分けて、冒頭のm epochはWLDのみで、後半のn epochではSLDに特定の割合でWLDを混ぜた状態で学習を行うことで、大量データでレバレッジを効かせつつ低ノイズなデータの学習も活かす。
WLDとして既存研究を使ってwikipediaからデータを取得する手法と、Webis-Debate-16データセットを用意。 Blendした学習を行うことで単体での学習より高いaccuracyを実現
割合は0.05程度が最も良い
Argumentation mining: State of the art and emerging trends Marco Lippi and Paolo Torroni
0. 論文
Will it Blend? Blending Weak and Strong Labeled Data in a Neural Network for Argumentation Mining Eyal Shnarch, Carlos Alzate, Lena Dankin, Martin Gleize, Yufang Hou, Leshem Choshen, Ranit Aharonov, Noam Slonim
1. どんなもの?
Weak Labeled Data(WLD)とStrong Labeled Data(SLD)の両方を活用してArgumentation Miningを行う手法
2. 先行研究と比べてどこがすごい?
WLDとSLDの両方をうまく活用する学習手法を提案した
3. 技術や手法のキモはどこ?
NoisyなラベルがついたWeak Labeled Dataと、アノテータがラベルを付けたStrong Labeled Dataを活用してモデルを学習させる手法。 学習を2つのステップに分けて、冒頭のm epochはWLDのみで、後半のn epochではSLDに特定の割合でWLDを混ぜた状態で学習を行うことで、大量データでレバレッジを効かせつつ低ノイズなデータの学習も活かす。
4. どうやって有効だと検証した?
WLDとして既存研究を使ってwikipediaからデータを取得する手法と、Webis-Debate-16データセットを用意。 Blendした学習を行うことで単体での学習より高いaccuracyを実現
5. 議論はある?
割合は0.05程度が最も良い
6. 次に読むべき論文は?
Argumentation mining: State of the art and emerging trends Marco Lippi and Paolo Torroni