Closed taofennanhai closed 1 year ago
你好,目前还没有训练过10B模型。10B模型本身占用的显存在40-50G左右,如果使用Adam优化器的话,SFT训练阶段占用的显存是模型本身占用的4倍。RLHF训练阶段还要再加上reward模型,如果reward模型也是10B的话,总共应该在模型本身占用显存的5倍左右。
不过有若干减少显存占用的方法,比如:模型文件转成fp16、使用LoRA、使用deepspeed等等
感谢你的回复!我大致了解了训练过程所需要的GPU显存消耗了。 我还有两个疑问,请教下: 1.GLM-10B-Chinese支持LoRA吗?我看官方仓库中是没有的 2.还有就是trlx是否训练的过程支持deepspeed框架?如果有,是在哪设置的?
非常感谢!
请问GLM-10B-Chinese的模型进行RLHF大概需要多大GPU?