karakuri-ai / paper-readings

repository to research the machine learning papers
2 stars 1 forks source link

[2019] Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context #29

Open IkokObi opened 5 years ago

IkokObi commented 5 years ago

ざっくり言うと

キーワード

1. 情報

論文リンク

https://arxiv.org/abs/1901.02860

著者

Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov

投稿日付

2019/1/9 (ACL 2019)

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?

IkokObi commented 5 years ago

7. 実装の詳細

Relative Positional Encodings

IkokObi commented 5 years ago

8. データセット

IkokObi commented 5 years ago

9. 結果の詳細

IkokObi commented 5 years ago

雑感&メモ