Open ymym3412 opened 6 years ago
Training Classifiers with Natural Language Explanations Braden Hancock, Paroma Varma, Stephanie Wang, Martin Bringmann, Percy Liang, Christopher Ré
自然言語の説明文を使ってラベル付けする関数(Labeling Funtion: LF)を作り、それをもとにデータを作ってClassifierを学習させる
LFを特徴量としてではなく、weak supervisionのラベル付け関数として使用する
Example文の中にあるEntityの関係性を予測するタスク。 自然言語の説明文が与えられ、それをもとにClassifierを学習させる。 説明文をもとにそれに対応するLFをルールベースで生成。それにFilteringをかけて最終的なLFを得る。 そのLFを使ってラベルなしデータにラベル付けをして、モデルの学習を行う。
3種類の関係性を予測するタスクで実験。 教師ありのモデルと比較をすると、同数の初期の教師ありデータでは性能で上回る。ラベル付きデータ数が少なくても高い性能を出す。
LFを特徴量として使うモデルと比べて、weak supervisionとして使う方がいい結果を出す。
Joint concept learning and semantic parsing from natural language explanations Shashank Srivastava Igor Labutov Tom Mitchell
第10回最先端NLP勉強会での資料 https://speakerdeck.com/conditional/training-classifiers-with-natural-language-explanations
0. 論文
Training Classifiers with Natural Language Explanations Braden Hancock, Paroma Varma, Stephanie Wang, Martin Bringmann, Percy Liang, Christopher Ré
1. どんなもの?
自然言語の説明文を使ってラベル付けする関数(Labeling Funtion: LF)を作り、それをもとにデータを作ってClassifierを学習させる
2. 先行研究と比べてどこがすごい?
LFを特徴量としてではなく、weak supervisionのラベル付け関数として使用する
3. 技術や手法のキモはどこ?
Example文の中にあるEntityの関係性を予測するタスク。 自然言語の説明文が与えられ、それをもとにClassifierを学習させる。 説明文をもとにそれに対応するLFをルールベースで生成。それにFilteringをかけて最終的なLFを得る。 そのLFを使ってラベルなしデータにラベル付けをして、モデルの学習を行う。
4. どうやって有効だと検証した?
3種類の関係性を予測するタスクで実験。 教師ありのモデルと比較をすると、同数の初期の教師ありデータでは性能で上回る。ラベル付きデータ数が少なくても高い性能を出す。
5. 議論はある?
LFを特徴量として使うモデルと比べて、weak supervisionとして使う方がいい結果を出す。
6. 次に読むべき論文は?
Joint concept learning and semantic parsing from natural language explanations Shashank Srivastava Igor Labutov Tom Mitchell