ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.32k stars 340 forks source link

支持转换glm4-9b-chat模型 #467

Closed TylunasLi closed 5 months ago

TylunasLi commented 5 months ago

考虑到目前直接加载方式尚未完善(如 #465 中的保存操作),支持的模型较少,而传统转换方法还有人使用 因此修改了脚本,支持转换glm-4-9b-chat模型

测试情况