Open wz0424 opened 5 months ago
我也是在另一台服务器用VLLM起的模型服务,用以上代码报错:
KeyError: 'Could not automatically map Qwen2-7B-Instruct to a tokeniser. Please use tiktoken.get_encoding
to explicitly get the tokeniser you expect.'
我也是在另一台服务器用VLLM起的模型服务,用以上代码报错: KeyError: 'Could not automatically map Qwen2-7B-Instruct to a tokeniser. Please use
tiktoken.get_encoding
to explicitly get the tokeniser you expect.'
你有试过把 path 那个参数固定成 gpt-3.5-trubo-0613
么 我调用vllm的openai是可以跑通的。但是结果对不对我不确定
我也是在另一台服务器用VLLM起的模型服务,用以上代码报错: KeyError: 'Could not automatically map Qwen2-7B-Instruct to a tokeniser. Please use
tiktoken.get_encoding
to explicitly get the tokeniser you expect.'
这个应该跟opencompass代码中的 token计算有关,应该是需要改成 适配你 模型的token计算方法
我可以运行成功,但是每次运行的结果都不一致,你们有遇到过吗 https://github.com/open-compass/opencompass/issues/1634
先决条件
问题类型
我正在使用官方支持的任务/模型/数据集进行评估。
环境
python 3.10.2 用vllm 再另外一台服务器部署了一个llama 2-7b,对外提供openai api,本机通过api对部署的模型进行测评,在运行到mbpp 第493个数据和mmlu子数据集high_school_european_history时会出现超出模型最大输入长度限制的情况,设置了mode截取输入长度但并未起效果
重现问题 - 代码/配置示例
重现问题 - 命令或脚本
python3 run.py ./config/api_examples/eval_api_all.py --debug 在运行到mbpp 第493个数据和mmlu子数据集high_school_european_history时会出现超出模型最大输入长度限制的情况,设置了mode截取输入长度但并未起效果
重现问题 - 错误信息
其他信息
No response