issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k
stars
341
forks
source link
完善“支持的模型”文档
#478
Closed
TylunasLi
closed
4 months ago
TylunasLi
commented
4 months ago
修改完善“支持的模型”文档,合并“直接读取”和需要转换的模型到一个文档中;
修复 GCC 7.x 下的编译运行问题。
目前还有一些理论上支持的模型(Yi1.5、internlm2.5等等)没有测试过,先更新这么多。
目前还有一些理论上支持的模型(Yi1.5、internlm2.5等等)没有测试过,先更新这么多。