ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.3k stars 334 forks source link

请问现在支持deepseekv2量化吗 #457

Closed fw2325 closed 4 months ago

ztxz16 commented 4 months ago

支持的,int4量化的模型已经上传魔搭(modelscope了)