OpenBMB / MiniCPM-V

MiniCPM-V 2.6: A GPT-4V Level MLLM for Single Image, Multi Image and Video on Your Phone
Apache License 2.0
12.72k stars 891 forks source link

[BUG] 如何合并lora后的权重 #260

Closed Gary2018X closed 4 months ago

Gary2018X commented 5 months ago

是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?

该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?

当前行为 | Current Behavior

No response

期望行为 | Expected Behavior

No response

复现方法 | Steps To Reproduce

No response

运行环境 | Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):

备注 | Anything else?

No response

qyc-98 commented 5 months ago

您可以根据这个加载模型吗?https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning

Gary2018X commented 5 months ago

然后可以通过model.merge_and_unload()合并吗

qyc-98 commented 5 months ago

我有点不清楚你说的合并是什么意思,我们提供的方式应该可以正常的加载模型

Gary2018X commented 5 months ago

就是把lora权重和基础模型合并到一个模型

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 单卡显存又不够

1SingleFeng commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

1SingleFeng commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 https://github.com/microsoft/DeepSpeed/issues/5422

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

1SingleFeng commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

1SingleFeng commented 5 months ago

@todaydeath 了解了,那就不清楚了,我目前还没有涉及到这些方面

todaydeath commented 5 months ago

image 比较好奇的是,如果是默认多卡运行的,这个更新是为了解决什么问题呢

1SingleFeng commented 5 months ago

@todaydeath 了解了,那就不清楚了,我目前还没有涉及到这些方面

后续如果我有进展的话会再告知你

todaydeath commented 5 months ago

@todaydeath 了解了,那就不清楚了,我目前还没有涉及到这些方面

后续如果我有进展的话会再告知你

好的,多谢

limian-xixi commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

我这边遇到了同样的问题,deepspeed降到0.14.0之后问题也没有解决(降后重新做LoRA也是报同样的错)。请问这里现在有解决方式吗?

File "***/minicpm-eval-lora.py", line 57, in response = model.chat( File "/root/.cache/huggingface/modules/transformers_modules/MiniCPM-Llama3-V-2_5/modeling_minicpmv.py", line 454, in chat res, vision_hidden_states = self.generate( File "/root/.cache/huggingface/modules/transformers_modules/MiniCPM-Llama3-V-2_5/modeling_minicpmv.py", line 354, in generate ) = self.get_vllm_embedding(model_inputs) File "/root/.cache/huggingface/modules/transformers_modules/MiniCPM-Llama3-V-2_5/modeling_minicpmv.py", line 156, in get_vllm_embedding cur_vllmemb.scatter(0, image_indices.view(-1, 1).repeat(1, cur_vllm_emb.shape[-1]), RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:1! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

limian-xixi commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

这里的链接貌似已经失效了,我这边遇到了跟您一样的问题,单张卡(device_map = 'cuda')会OOM,多张卡(devive_map = 'auto')会报tensors to be on the same device, but found at least two devices。请问可否指导下问题是怎么解决的吗? 我这边的环境是两张V100。deepspeed版本从0.14.2降成0.14.0也无济于事。

jiadongzh commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

@todaydeath 您好,链接里面没有“模型合并”的脚本,分享的链接好像都一点不相关,可以分享模型合并脚本吗?谢谢!

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

@todaydeath 您好,链接里面没有“模型合并”的脚本,分享的链接好像都一点不相关,可以分享模型合并脚本吗?谢谢!

不好意思,发错链接了。正确: https://www.chenxublog.com/2024/04/23/single-card-fine-tuning-minicpm-merging-lora-and-converting-to-gguf-for-llama-cpp.html image

1SingleFeng commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

@todaydeath 您好,链接里面没有“模型合并”的脚本,分享的链接好像都一点不相关,可以分享模型合并脚本吗?谢谢!

不好意思,发错链接了。正确: https://www.chenxublog.com/2024/04/23/single-card-fine-tuning-minicpm-merging-lora-and-converting-to-gguf-for-llama-cpp.html image

你好,我在尝试合并模型时merge_and_unload(),遇到如下报错RuntimeError: The weights trying to be saved contained shared tensors [{'llm.model.embed_tokens.weight', 'llm.embed_tokens.weight'}] that are mismatching the transformers base configuration. Try saving using safe_serialization=False or remove this tensor sharing. 请问您了解为什么吗

todaydeath commented 5 months ago

https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 这个多卡运行不了,报错: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src)

你可以检查一下deepspeed版本,这个可能是因为deepspeed版本导致的,降级到0.14.0可以解决

deepspeed降到0.14.0之后,问题还存在。这个默认是支持多卡运行的么?

降级后问题不存在了,默认是多卡运行的,这个是deepspeed的bug,具体你可以看这里 microsoft/DeepSpeed#5422

你给的这个链接报错信息是数据在gpu和cpu之间的报错,我这里的报错是在两块显卡之间的 tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6! (when checking argument for argument src in method wrapper_CUDA_scatter__src) deepspeed降到0.14.0之后,问题还存在 我这里的显卡型号是3090,应该是不支持显卡间通信,有可能是这个原因么

应该不是,没有查到3090不支持显卡间通信的资料,如果你能查到相关信息的话,也欢迎分享一下;你可以放一下训练的脚本和相关的环境配置吗,看一下是否是哪里设置有问题

这个问题在使用web_demo_2.5.py的时候就有的。web_demo_2.5.py里面device默认是cuda,启动的时候使用的是cuda:0,当把device类型改为auto(和https://github.com/OpenBMB/MiniCPM-V/tree/main/finetune#lora-finetuning 中的device类型一致)之后,可以运行起来,但是在进行对话时也是会报tensors to be on the same device, but found at least two devices, cuda:0 and cuda:6(也可能是其他显卡,例如cuda:5)的错。

当前找到了一个解决方案,是使用https://community.openai.com/t/how-to-do-few-shot-prompting-interweaving-text-and-images-with-gpt-4-vision-preview-as-seen-in-the-dawn-of-lmms-preliminary-explorations-with-gpt-4v-ision/598794/2 里面的脚本做了模型合并,然后根据https://github.com/OpenBMB/MiniCPM-V/blob/main/docs/inference_on_multiple_gpus.md做的GPU串行推理

@todaydeath 您好,链接里面没有“模型合并”的脚本,分享的链接好像都一点不相关,可以分享模型合并脚本吗?谢谢!

不好意思,发错链接了。正确: https://www.chenxublog.com/2024/04/23/single-card-fine-tuning-minicpm-merging-lora-and-converting-to-gguf-for-llama-cpp.html image

你好,我在尝试合并模型时merge_and_unload(),遇到如下报错RuntimeError: The weights trying to be saved contained shared tensors [{'llm.model.embed_tokens.weight', 'llm.embed_tokens.weight'}] that are mismatching the transformers base configuration. Try saving using safe_serialization=False or remove this tensor sharing. 请问您了解为什么吗

不清楚,这个问题我没遇到

White65534 commented 5 months ago

我有点不清楚你说的合并是什么意思,我们提供的方式应该可以正常的加载模型

你们提供的方式 看不懂呀,msg是干什么的?模型合并是把 lora和base model 合并在一起的,llama factory就是这么干的,没看懂你们这边怎么加载的lora权重,也不知道你给的代码怎么用?还加不了你们的群,急死我了

qyc-98 commented 4 months ago

msg是pytorch里模型加载参数后,如果有参数不匹配的打印信息,我们更新了lora微调和加载的方式 您可以重新尝试一下