Closed tayton42 closed 1 month ago
经过测试,如果我把tune_vision设为false就会正常
这是因为lora的get peft model会自动把 模型除了lora以外的部分的requires grad都设置为false,无法参与训练,tune_vision会使得resampler和vpm都参与训练,可能这样有利于您的finetune,我们会更新代码,默认训练resampler,并且经过实验,对于大部分情况我们建议默认训练resampler;对于vpm部分可以根据需要调节
您好 关于lora微调 我们即将跟新一版代码,解决其中存在的一些问题,建议您在更新代码后重新进行lora微调。这次更新主要是解决了lora微调后,模型的视觉部分参数没有正常保存,导致您的训练失效,我们深感抱歉。您可以参考最新的lora加载方式,参见finetune下的readme.md。谢谢您的支持
经过测试,如果我把tune_vision设为false就会正常
最新的代码好像 tune_vision为true还是同样有nan的问题 想问问您那边有解决吗
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
当前行为 | Current Behavior
使用同样的数据集训练,正常微调代码没有问题,但是lora微调代码显示grad_norm为nan,在第一步后loss也变为0
期望行为 | Expected Behavior
No response
复现方法 | Steps To Reproduce
运行环境 | Environment
备注 | Anything else?
No response