ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k stars 341 forks source link

直接读取Llama3,Qwen2的HF模型,apiserver webui benchmark使用ChatTemplate #469

Closed TylunasLi closed 5 months ago

TylunasLi commented 5 months ago
  1. 修复直接读取Llama3 HF模型的能力,支持直接读取Qwen2、Qwen1.5的HF模型
  2. 配合修改,apiserver webui benchmark使用ChatTemplate

测试情况

在以下模型上测试通过