issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.32k
stars
340
forks
source link
请问现在支持deepseekv2量化吗
#457
Closed
fw2325
closed
5 months ago
ztxz16
commented
6 months ago
支持的,int4量化的模型已经上传魔搭(modelscope了)
支持的,int4量化的模型已经上传魔搭(modelscope了)