Open ChenBinfighting1 opened 1 year ago
如果用LoRA需要的step数较多才会看到效果. 如要更快速/稳定可使用全参数fintune
如果用LoRA需要的step数较多才会看到效果. 如要更快速/稳定可使用全参数fintune
1,step较多大概是需要多少才会有效果啊? 2,全参数fintune,在单张3090,24g显存会OOM
@lich99 ,请问作者提供的LORA finetune权重训练参数怎么设置的呢?复现不了效果。r=8, lora_alpha=16, droput=0.1, enable_lora=[True, False, True], 其他参数比如MAX_LENGTH, NUM_EPOCHES, LR?
针对你是谁finetune,输出还是原模型的回答,新finetune的pt模型加载没有问题吧,如下: tokenizer = AutoTokenizer.from_pretrained("ChatGLM-6B/chatglm-6b", trust_remote_code=True) model = AutoModel.from_pretrained("ChatGLM-6B/chatglm-6b", trust_remote_code=True).half().cuda()
加载finetune模型
peft_path = "ChatGLM-finetune-LoRA/saved/finetune_test/finetune_test_epoch_2.pt" model.load_state_dict(torch.load(peft_path), strict=False) model.eval()