issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.3k
stars
334
forks
source link
修复webui/apiserver的Windows编译,并支持直接读取HF模型
#466
Closed
TylunasLi
closed
3 months ago
TylunasLi
commented
3 months ago
修复 #464 中引入的 webui / apiserver 的windows编译问题,修复 main 的 windows编译(只是编译通过);
main / webui / apiserver 找不到文件则退出;
webui / apiserver 支持直接读取HF .safetensers 模型;
测试情况
在以下环境测试过编译:
Windows 10 + VIsual Studio 2015R3
CentOS7 + GCC 8.3 在以下环境运行通过:
CentOS7 + GCC 8.3
测试情况
在以下环境测试过编译: