karakuri-ai / paper-readings

repository to research the machine learning papers
2 stars 1 forks source link

[2019] ALBERT: A Lite BERT for Self-supervised Learning of Language Representations #57

Open IkokObi opened 4 years ago

IkokObi commented 4 years ago

ざっくり言うと

BERT以降,モデルサイズを大きくすることで精度の向上を図るトレンドがあるが,その潮流とは異なり,パラメータ数の削減を目的とした新モデルの提案(ALBERTはA Lite BERTの略).同じモデル構成で比較すると精度は落ちるが,パラメータ数が少ない分モデルを大きくすることが可能になり,結果としてBERT largeとほぼ同じ性能のモデルが約1/5のパラメータ数で達成された.また,事前学習のタスクとして,文の順序入れ替え判定を新たに導入し,精度向上に寄与した.

キーワード

1. 情報

論文リンク

https://arxiv.org/abs/1909.11942

著者

Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut

投稿日付

2019/9/26

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?

IkokObi commented 4 years ago

7. 実装の詳細

IkokObi commented 4 years ago

8. データセット

IkokObi commented 4 years ago

9. 結果の詳細

IkokObi commented 4 years ago

雑感&メモ