kacky24 / papers

my publications and short summaries of papers I have read
3 stars 1 forks source link

Universal Language Model Fine-tuning for Text Classification #43

Closed kacky24 closed 5 years ago

kacky24 commented 5 years ago

short summary

言語モデルに対してInductive transfer learningを効果的に行う手法Universal Language Model Fine-tuning(ULMFiT)の提案。6つのテキスト分類タスクにおいて、SOTAでしかも必要サンプル数が少なく効率的であることを示した。

computer visionにおいては、Imagenet, MS-COCOなどで事前学習したモデルを用いて、object detection, segmentation, classificationなどにinductive transfer learningを行うことで、大きな成果を残してきたが、NLPではこのような事前学習がうまく行われておらず、word2vecやELMoなどの特徴量としてうまく取り出す手法がインパクトを残すにとどまっている。CVにおいてのように、モデルをいい感じで初期化することで精度・効率を大きくあげることが理想。 → ULMFiT

UNIFiTの構成

  1. generalな言語モデルの学習
  2. target taskの領域におけるLMのfine-tuning
    • Discriminative fine-tuning
    • Slanted triangular learning rates
  3. targetの分類タスクへの転移学習
    • Concat pooling
    • Gradual unfreezing
2018-12-02 9 37 43

generalな言語モデルの学習

wikiなどでLMを学習させる。モデルには、AWD-LSTM (SOTA?)を用いる。

target taskの領域におけるLMのfine-tuning

targetの分類タスクへの転移学習

author

Jeremy Howard∗ fast.ai University of San Francisco j@fast.ai Sebastian Ruder∗ Insight Centre, NUI Galway Aylien Ltd., Dublin sebastian@ruder.io

URL

https://arxiv.org/abs/1801.06146

year

ACL 2018