Open MXD6 opened 2 weeks ago
LLaMA3-8B-Instruct Lora 微调 定义好lora_config后,为什么没有get_peft_model,Trainer传入的是pretrain model.
trainer = Trainer( model=model, args=args, train_dataset=tokenized_id, data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer, padding=True), ) trainer.train()
在notebook代码演示文件中有写哦
LLaMA3-8B-Instruct Lora 微调 定义好lora_config后,为什么没有get_peft_model,Trainer传入的是pretrain model.