Closed IcyFeather233 closed 4 months ago
目前可以通过运行时把 --max-partition-size
指定的很大避免对数据集进行切分从而规避这个问题,但是只是一个暂时的解决方案,还是希望开发人员可以看看怎么解决~
我也遇到了这个问题,使用vllm对第一个task测完之后就会卡住了
目前可以通过运行时把 指定的很大避免对数据集进行切分从而规避这个问题,但是只是一个暂时的解决方案,还是希望开发人员可以看看怎么解决~
--max-partition-size
--max-partition-size 对单个数据集可以解决,但是多个数据集进行测评的话还是会分为多个task也会出现这个问题
same question, get "Calling ray.init() again after it has already been called." error
in opencompass/models/vllm.py
import ray
if ray.is_initialized():
self.logger.info('shutdown ray instance to avoid "Calling ray.init() again" error.')
ray.shutdown()
add above command before calling vllm LLM class; in about 52 lines;
in opencompass/models/vllm.py
import ray if ray.is_initialized(): self.logger.info('shutdown ray instance to avoid "Calling ray.init() again" error.') ray.shutdown()
add above command before calling vllm LLM class; in about 52 lines;
发现使用了这个方法之后,对于单模型多数据集的情况,每次有新数据集,似乎模型也要跟着重新启动一遍ray,即每处理一个数据集都会输出:
2024-04-12 01:59:04,123 INFO worker.py:1743 -- Started a local Ray instance. View the dashboard at 127.0.0.1:8266
INFO 04-12 01:59:44 llm_engine.py:75] Initializing an LLM engine (v0.4.0) with config: model='xxx', tokenizer='xxx)
(RayWorkerVllm pid=108846) INFO 04-12 02:01:37 selector.py:16] Using FlashAttention backend.
然而我发现这个过程十分耗时,有没有办法能改成启动一遍ray,一口气把数据集都跑完?
先决条件
问题类型
我正在使用官方支持的任务/模型/数据集进行评估。
环境
重现问题 - 代码/配置示例
Model Configs
without VLLM
with VLLM
Eval Configs
重现问题 - 命令或脚本
重现问题 - 错误信息
到这里就卡住不动了,如果我换成不用VLLM的model,则会没有卡顿的进入被切分的第二个task
其他信息
No response