Closed ChuanhongLi closed 5 months ago
请问下,能直接跑 Qwen1.5-72B-Chat-GPTQ-Int4 模型吗?
你好,我使用 Qwen1.5-7B-Chat-GPTQ-Int4 测试可以推理。load model 的时候去掉 dtype=torch.bfloat16 即可。
dtype=torch.bfloat16
您好!修改哪个文件?@guyan364
请问下,能直接跑 Qwen1.5-72B-Chat-GPTQ-Int4 模型吗?