Open Andarkness1 opened 2 weeks ago
进一步,发现使用finetune.py同参数训练的lora加到模型中,结果与未训练的llama模型结果完全一致 这是否合理
如题,在使用games数据集 ,将sample设置为len(sequential_train) 的情况下 训练 + 使用训练后的lora获取predict 再通过evaluate计算dist排序 得到的ndcg以及RECALL水平均只有0.00的水平 无法达到论文中full的效果。是否还需要修改超参数或者进行其他操作呢。
这可能和加载的backend llama模型以及lora adapter的ckpt有关。
如题,在使用games数据集 ,将sample设置为len(sequential_train) 的情况下 训练 + 使用训练后的lora获取predict 再通过evaluate计算dist排序 得到的ndcg以及RECALL水平均只有0.00的水平 无法达到论文中full的效果。是否还需要修改超参数或者进行其他操作呢。
这可能和加载的backend llama模型以及lora adapter的ckpt有关。
- 首先确保一下backend llama使用的是meta官方release出来的模型,我们也分享在了google drive供使用者下载。
- 另外一个可能的原因是peft版本的问题,导致训练好的lora adapter实际并没有保存下来,详见issue。 你好 这里我peft的版本也进行了多次修改 并且下载了你的lora adapter 但是测试时,是否finetune的结果仍然相同 我使用的basemodel为llama-7b-hf 并且调用peft模型的方式如下 是否存在其他问题。
加载模型
model0 = LlamaForCausalLM.from_pretrained( base_model, load_in_8bit=load_8bit, torch_dtype=torch.float16, device_map=device_map, )
model = PeftModel.from_pretrained( model0, lora_weights, )
model = model.merge_and_unload()
如题,在使用games数据集 ,将sample设置为len(sequential_train) 的情况下 训练 + 使用训练后的lora获取predict 再通过evaluate计算dist排序 得到的ndcg以及RECALL水平均只有0.00的水平 无法达到论文中full的效果。是否还需要修改超参数或者进行其他操作呢。
这可能和加载的backend llama模型以及lora adapter的ckpt有关。
- 首先确保一下backend llama使用的是meta官方release出来的模型,我们也分享在了google drive供使用者下载。
- 另外一个可能的原因是peft版本的问题,导致训练好的lora adapter实际并没有保存下来,详见issue。
你好 这里我使用你的模型 以及Lora 进行inference 和 evaluate 为什么结果仍然较低
如题,在使用games数据集 ,将sample设置为len(sequential_train) 的情况下 训练 + 使用训练后的lora获取predict 再通过evaluate计算dist排序 得到的ndcg以及RECALL水平均只有0.00的水平 无法达到论文中full的效果。是否还需要修改超参数或者进行其他操作呢。