THUDM / GLM-4

GLM-4 series: Open Multilingual Multimodal Chat LMs | 开源多语言多模态对话模型
Apache License 2.0
5.28k stars 435 forks source link

V100显卡是否存在兼容问题?报错mma -> mma layout conversion is only supported on Ampere"' failed. #485

Closed HansenZhao closed 3 months ago

HansenZhao commented 3 months ago

System Info / 系統信息

系统 image 驱动 image CUDA image pip image image image 没有vllm-flash-atten是因为我卸载了,卸载前后运行结果一样 运行basic_demo中的vllm_cli_demo报错 image image

Who can help? / 谁可以帮助到您?

No response

Information / 问题信息

Reproduction / 复现过程

安装CUDA 12.1版本,pip -r requirements.txt安装环境,运行basic_demo中的vllm_cli_demo.py脚本 PS: 运行trans_cli_demo.py是没问题的,但是openai_api_server.py 似乎是基于vllm的,我希望构建openai接口服务

Expected behavior / 期待表现

希望能提供解决的方法