使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
356
stars
46
forks
source link
ChatGLM2-6B微调后合并报错We need an `offload_dir` to dispatch this model according to this `device_map`, the following submodules need to be offloaded: #46
Closed
JuzLEthE closed 12 months ago
peft版本使用0.3.0 和0.4.0都有这个问题
使用的命令是 python3 merge_lora_and_quantize.py \ --lora_path saved_files \ --output_path merged_qlora_model_4bit \ --remote_scripts_dir remote_scripts/chatglm2-6b \ --qbits 4
微调时使用的输出文件夹是 "output_dir": "saved_files" lora_path是正确的 文件夹内只有这些文件