Open xuyifan-0731 opened 3 days ago
+1,请问找到解决办法了么
+1,请问找到解决办法了么
我发现好像是训练的时候没有用正确的环境,能够进行训练但是tokenizer和config都有点不一样,所以读取不了,换正确安装transformers的环境训练之后就没问题了
+1,一摸一样的的报错。是不是vllm版本的问题。但是看vllm0.6.2已经支持qwen2vl了呀
+1,一摸一样的的报错。是不是vllm版本的问题。但是看vllm0.6.2已经支持qwen2vl了呀
从源码安装最新的 vLLM 试试 https://docs.vllm.ai/en/latest/getting_started/installation.html#install-the-latest-code
把模型文件目录下config.json中的type
修改为rope_type
可以规避这个错误
你好!我的机器是h800,我按照repo中进行了如下按照步骤:
但当我运行python -m vllm.entrypoints.openai.api_server --served-model-name Qwen2-VL-7B-Instruct --model /workspace。。。的时候,仍然出现了报错:
我也尝试了从https://github.com/fyabc/vllm安装vllm,但是安装过程中报错:
请问有什么解决办法吗
作为补充,以下是我的机器信息: