Closed Devliang24 closed 3 weeks ago
目前有一个 bug,应该能用 https://github.com/modelscope/evalscope/pull/161 修复。
感谢,明天可以用上嘛?
如果您现在就需要使用的话,也可以尝试把 stream 参数放在 query-template 外。
--query-template '{"model": "%m", "messages": []}' --stream'
这样的形式应该是正确的。
thx
我预期发送参数模版
./datasets/my_data.jsonl 数据集内容格式
执行命令:
evalscope perf --url 'http://ip:host/v1/chat/completions' --parallel 12 --model 'Qwen2.5-72B-Instruct' --log-every-n-query 10 --read-timeout=120 -n 1 --max-prompt-length 128000 --api openai --query-template '{"model": "%m", "messages": [], "stream": true}' --dataset-path './datasets/my_data.jsonl'