shuxueslpi / chatGLM-6B-QLoRA

使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
356 stars 46 forks source link

transformers>4.30.2时,模型不会进行量化,是因为什么? #39

Open sxm7078 opened 1 year ago