linhao0204 / blog-comment

0 stars 0 forks source link

ALBERT | Linhao #3

Open linhao0204 opened 4 years ago

linhao0204 commented 4 years ago

https://linhao0204.github.io/2020/07/20/ALBERT/#more

论文简介  在预训练的时候,通过增大模型大小可以有效提升模型在下游任务的表现,但是模型大小会受到GPU/TPU内存大小和训练时间的限制。为了解决这些问题,我们提出了两个降低模型参数的方法来降低BERT的内存占用以及提升训练速度。实验表明我们模型比原有BERT模型规模更小,同时我们使用了自监督损失来建模句子内部的相关性,能够有效提升模型在具有多个句子输入的下游任务的效果。在具有

linhao0204 commented 4 years ago

你好,测试