ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.31k stars 338 forks source link

chatglm2微调后的模型能加速 并且部署吗 #336

Open sssssshf opened 1 year ago

sssssshf commented 1 year ago

chatglm2微调后的模型能加速 并且部署吗

TylunasLi commented 1 year ago

目前不支持P-tuning微调的模型,但是支持lora和全量参数微调、冻结参数微调的模型。

yechong316 commented 11 months ago

推理速度会加快,可以部署