Open dhcode-cpp opened 4 months ago
PPL任务测评时,差异更大 gpu0 70G+, GPU7 20G+
Hi, we actually has supported the vllm and lmdeploy. Please check the doc.
Hi, we actually has supported the vllm and lmdeploy. Please check the doc.
Thank you for offering the open-compass. I've tried the lmdeploy. It achieved stability and high infer speed. However, when I set num_gpus = 2 in the configs, it still run on only one gpu. How can I fix this?
Hi, we actually has supported the vllm and lmdeploy. Please check the doc.
Thank you for offering the open-compass. I've tried the lmdeploy. It achieved stability and high infer speed. However, when I set num_gpus = 2 in the configs, it still run on only one gpu. How can I fix this?
你好,我也遇到同样的情况,单机多卡情况还是只用一张卡推理,请问你解决了吗
先决条件
问题类型
我修改了代码(配置不视为代码),或者我正在处理我自己的任务/模型/数据集。
环境
重现问题 - 代码/配置示例
我尝试其他的模型也有这个问题
重现问题 - 命令或脚本
这个模型是我自己定制的
重现问题 - 错误信息
其他信息
感谢你们提供的测评工具,以下是我在使用opencompass时遇到的问题:
当前采用多卡推理,8卡8进程,相当于数据并行,模型不做切分。
预期应该每个卡占用是相近的。 这里的gpu0和gpu7相差非常大。请问如何解决?
另外:
期待你的回复和建议。