issues
search
shuxueslpi
/
chatGLM-6B-QLoRA
使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
356
stars
46
forks
source link
transformers>4.30.2时,模型不会进行量化,是因为什么?
#39
Open
sxm7078
opened
1 year ago