Closed HansenZhao closed 3 months ago
系统 驱动 CUDA pip 没有vllm-flash-atten是因为我卸载了,卸载前后运行结果一样 运行basic_demo中的vllm_cli_demo报错
No response
安装CUDA 12.1版本,pip -r requirements.txt安装环境,运行basic_demo中的vllm_cli_demo.py脚本 PS: 运行trans_cli_demo.py是没问题的,但是openai_api_server.py 似乎是基于vllm的,我希望构建openai接口服务
希望能提供解决的方法
System Info / 系統信息
系统 驱动 CUDA pip 没有vllm-flash-atten是因为我卸载了,卸载前后运行结果一样 运行basic_demo中的vllm_cli_demo报错
Who can help? / 谁可以帮助到您?
No response
Information / 问题信息
Reproduction / 复现过程
安装CUDA 12.1版本,pip -r requirements.txt安装环境,运行basic_demo中的vllm_cli_demo.py脚本 PS: 运行trans_cli_demo.py是没问题的,但是openai_api_server.py 似乎是基于vllm的,我希望构建openai接口服务
Expected behavior / 期待表现
希望能提供解决的方法