Closed toddlt closed 11 months ago
请问您有遇到过lora训chatglm3时存下来的checkpoint里是一个12G的pytorch_model.bin而不是几十M的adapter_model.bin的情况吗
听起来是保存了全量的参数,而不是lora参数,重新定义下save函数
嗯嗯,明白啦,改了管用了
请问您有遇到过lora训chatglm3时存下来的checkpoint里是一个12G的pytorch_model.bin而不是几十M的adapter_model.bin的情况吗