尊敬的作者您好,十分欣赏您的工作!
我在运行taxibj等基于timm导入的scheduler时会出现以下报错:lr scheduler CosineLRScheduler doesn't follow PyTorch's LRScheduler API. You should override the LightningModule.lr_scheduler_step hook with your own logic if you are using a custom LR scheduler.
在openstl/methods/base_method.py中加入commit a6e0dd3中已经删除的函数:
def lr_scheduler_step(self, scheduler, *args, **kwargs):
scheduler.step(epoch=self.current_epoch)
则能正常运行;但在加入后onecycle学习率则不能正常更新(issue#113以及#99中已经提及)。目前我在运行Onecycle时会注释掉这行代码,但在运行例如cosine等scheduler时则会添加这行代码。
尊敬的作者您好,十分欣赏您的工作! 我在运行taxibj等基于timm导入的scheduler时会出现以下报错:lr scheduler
CosineLRScheduler
doesn't follow PyTorch's LRScheduler API. You should override theLightningModule.lr_scheduler_step
hook with your own logic if you are using a custom LR scheduler. 在openstl/methods/base_method.py中加入commit a6e0dd3中已经删除的函数: def lr_scheduler_step(self, scheduler, *args, **kwargs): scheduler.step(epoch=self.current_epoch) 则能正常运行;但在加入后onecycle学习率则不能正常更新(issue#113以及#99中已经提及)。目前我在运行Onecycle时会注释掉这行代码,但在运行例如cosine等scheduler时则会添加这行代码。