Closed bjut-zhangdabao closed 2 months ago
尊敬的作者: 您好,您在百度[千言万语]技术分享活动做的汇报中提到说:“在预训练的时候,把Transformer其他的层权重都固定掉,只去学习这个word embeding层“,请问,"固定权重操作"在代码中的位置是哪里? 祝您科研顺利、工作顺利!!! 2024.8.21 bjut-zhangdabao 附图(您在[千言万语]技术活动中的讲到此处的截图):
您好,可以通过取消注释此处来固定其它层的权重。但在训练资源允许的情况下,还是推荐全量训练,效果会更好一点。
感谢您的热心回复,祝您在科研的道路上不断突破瓶颈,取得更加辉煌的成果!
尊敬的作者: 您好,您在百度[千言万语]技术分享活动做的汇报中提到说:“在预训练的时候,把Transformer其他的层权重都固定掉,只去学习这个word embeding层“,请问,"固定权重操作"在代码中的位置是哪里? 祝您科研顺利、工作顺利!!! 2024.8.21 bjut-zhangdabao 附图(您在[千言万语]技术活动中的讲到此处的截图):