QwenLM / Qwen-VL

The official repo of Qwen-VL (通义千问-VL) chat & pretrained large vision language model proposed by Alibaba Cloud.
Other
5.06k stars 385 forks source link

ValueError: Unrecognized configuration class <class 'transformers_modules.Qwen.Qwen-VL-Chat-Int4.de79173b6abca0f3b8f0e7fa0d723da7e1748792.configuration_qwen.QWenConfig'> to build an AutoTokenizer. #143

Open JR-s763 opened 1 year ago

JR-s763 commented 1 year ago

是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?

该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?

当前行为 | Current Behavior

No response

期望行为 | Expected Behavior

No response

复现方法 | Steps To Reproduce

No response

运行环境 | Environment

- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):

备注 | Anything else?

No response

ShuaiBai623 commented 11 months ago

是lora后的结果,需要从原始路径load tokenizer

danjuan-77 commented 10 months ago

通过官方给的合并LoRA和BaseModel的代码,确实可以合并得到一个新的模型文件(包含10个.bin文件等),直接通过AutoModelForCausalLM.from_pretrained可以正常调用到合并后的模型,但是无法通过新模型的地址调用tokenizer,是因为新模型所在的文件夹中没有和tokenizer相关的文件,我的解决办法是将官方提供的模型文件中我们所缺失的那部分文件复制粘贴到我们的新模型所在的文件夹中即可。(可以尝试调用官方模型文件夹中的tokenizer,然后保存到新模型的地址,但是我没尝试,不知道调用什么api;也可以直接调用官方提供的模型中的tokenizer,但是好像会报错)欢迎大家提供其他解决方案

liyan1997 commented 2 months ago

通过官方给的合并LoRA和BaseModel的代码,确实可以合并得到一个新的模型文件(包含10个.bin文件等),直接通过AutoModelForCausalLM.from_pretrained可以正常调用到合并后的模型,但是无法通过新模型的地址调用tokenizer,是因为新模型所在的文件夹中没有和tokenizer相关的文件,我的解决办法是将官方提供的模型文件中我们所缺失的那部分文件复制粘贴到我们的新模型所在的文件夹中即可。(可以尝试调用官方模型文件夹中的tokenizer,然后保存到新模型的地址,但是我没尝试,不知道调用什么api;也可以直接调用官方提供的模型中的tokenizer,但是好像会报错)欢迎大家提供其他解决方案

6啊兄弟