Open todesti2 opened 4 months ago
默认只支持下面的,但是通过register
方式你可以注册任意的优化器
SGD = register(optim.SGD)
Adam = register(optim.Adam)
AdamW = register(optim.AdamW)
默认只支持下面的,但是通过
register
方式你可以注册任意的优化器SGD = register(optim.SGD) Adam = register(optim.Adam) AdamW = register(optim.AdamW)
您的意思是 本框架支持我自己写一个优化器并使用 对么
是的
是的
作者您好!
optimizer.py
里注册一个新的优化器,然后改trainer.py
呢(我暂时还实现不出来
作者您好!RT-DETR使用的是算法库内置的AdamW优化器 我想尝试替换成其他的优化算法例如变色龙算法的
我多次尝试 改optimizer.py、trainer.py 等文件,但是在输出学习率等各方面都遇到问题,请问您有什么建议吗?
又或者说,咱们的这个框架支持更改这些吗?
感激您的回复!