Open imjking opened 1 year ago
通常来说,使用lora训练chatglm2,确实只需要14g左右(在batchsize=1,文本长度也不太长的情况下(比如长度为512))。
但是也有例外,会导致你的显存不够,建议你检查一下下面内容:
基本上就这些,希望可以帮到你
好的,我试试。谢谢
已解决,transformers更新到最新版
请问chatglm2-6b-lora训练可以设置多轮的epoch吗?我没找到在哪设置的
已解决,transformers更新到最新版
请问一下你用的transformers的版本是多少?
你好,我用4张12g 3080ti想跑chatglm2微调,但是报显存不足; 使用你列的只需14G显存的参数后也不行;使用int8加载模型后在训练时报了oom。 上面都是在模型并行参数开启下跑的。
在关闭模型并行参数时,也会在训练时报oom, 这时候只会用到一张卡。
请问这种情况正常吗,我该如何解决呢?