shuxueslpi / chatGLM-6B-QLoRA

使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
350 stars 46 forks source link

没有docker环境 用git bash运行报错 #12

Open Mou-Mou-L opened 1 year ago

Mou-Mou-L commented 1 year ago

把这块代码放进.sh文件 使用git bash 命令运行 python3 train_qlora.py \ --train_args_json chatGLM_6B_QLoRA.json \ --model_name_or_path THUDM/chatglm-6b \ --train_data_path data/train.jsonl \ --eval_data_path data/dev.jsonl \ --lora_rank 4 \ --lora_dropout 0.05 \ --compute_dtype fp32 然后报错 image

Mou-Mou-L commented 1 year ago

把这块代码放进.sh文件 使用git bash 命令运行 python3 train_qlora.py --train_args_json chatGLM_6B_QLoRA.json --model_name_or_path THUDM/chatglm-6b --train_data_path data/train.jsonl --eval_data_path data/dev.jsonl --lora_rank 4 --lora_dropout 0.05 --compute_dtype fp32 然后报错 image

image

shuxueslpi commented 1 year ago

你的cuda环境有没有问题?报错里其实写了运行 python -m bitsandbutes 然后看把cuda加到LD_LIBRARY_PATH

Mou-Mou-L commented 1 year ago

你的cuda环境有没有问题?报错里其实写了运行 python -m bitsandbutes 然后看把cuda加到LD_LIBRARY_PATH

好吧 我是window系统 这个项目只能在linux跑么? 我看cuda加到LD_LIBRARY_PATH

都是linux的问答