Open bytekongfrombupt opened 5 years ago
这样应该是拿不到学习率的,你可以这样做: for i in optimizer.param_groups: print(i) optimizer.param_groups是一个列表,里面是所有的参数信息。 而对每一个i,它里面是一个字典,包含了学习率等各种信息,你可以自己打印看一下。如果只想看学习率的话,只需要i['lr']就可以看到。
请问,bertAdam的学习率不是有一个先减小再增大的过程吗?实际的学习率应该怎么查看?
@wenyu332 Hi~ o( ̄▽ ̄)ブ,如题,在看你的代码过程中,打印出来在训练阶段的学习率是0,那么模型的参数为何还能更新?