Closed guotong1988 closed 3 years ago
learnable positional encoding 不经过训练的话,我个人觉得是不行的。必须有pretrain
哦哦,我没理解,,
可是仅用fine-tune的数据不也训练了positional encoding吗
@guotong1988 finetune 数据量太小,学不出太多东西。原始的bert也需要在pretraining 学position。 另外,position和token应该就是需要一起学的,它们互相补充,刻画了不一样的信息。不可能说pretrain只学token,后面finetune 的时候position随便换。
多谢多谢!多谢多谢! @guolinke