Closed lyq080700 closed 10 months ago
我也出现这个问题,好像需要resize-embedding-size步骤,但是不知道具体怎么解决
我想合并现有的chinese_alpaca_lora_7B这个权重再去指令微调,再合并自己微调后的权重,这样可以吗,
不可以。lora和对应的基模型是有绑定关系的。 不能理解为像积木一样把这个lora加到你的模型就能得到对话能力了。
我想合并现有的chinese_alpaca_lora_7B这个权重再去指令微调,再合并自己微调后的权重,这样可以吗,
不可以。lora和对应的基模型是有绑定关系的。 不能理解为像积木一样把这个lora加到你的模型就能得到对话能力了。
好的,非常感谢,这里还有两个问题:
感谢回答!
This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.
Closing the issue, since no updates observed. Feel free to re-open if you need any further assistance.
提交前必须检查以下项目
问题类型
None
基础模型
None
操作系统
None
详细描述问题
您好,我自己基于chinese_llama2进行了词表扩充,然后进行了预训练,预训练出来后对话能力不强的,所以需要指令微调,但我想合并现有的chinese_alpaca_lora_7B这个权重再去指令微调,再合并自己微调后的权重,这样可以吗,但我试过之后因为词表扩充的步骤,词表大小不一致所以合并不成功,到SFT的话就会报这个错误: RuntimeError: Error(s) in loading state_dict for PeftModelForCausalLM: size mismatch for base_model.model.model.embed_tokens.weight: copying a param with shape torch.Size([49954, 4096]) from checkpoint, the shape in current model is torch.Size([58353, 4096]). 请问一下这个问题要怎么解决呢,感谢回答!!!
依赖情况(代码类问题务必提供)
谢谢
运行日志或截图
谢谢