issues
search
yagumana
/
survey_paper
これまでに読んだ論文のメモ書き
0
stars
0
forks
source link
bert
#1
Open
yagumana
opened
2 years ago
yagumana
commented
2 years ago
12/4,12/5
双方向のlstmを実現したもの 双方向で行うために、pretrainとして、masked language を行って、embeddingを行っている。 また、next sentense predictionも事前学習として行っている。 そして、このモデルが注目を集めた理由として、tunningを行う、すなわち、最後のレイヤーをいじって、2,3epoch回すだけで、様々な自然言語系のタスクへと、事前学習モデルを応用することができる点が挙げられる。
12/4,12/5