issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.31k
stars
338
forks
source link
修复Pyfastllm的命令行示例并更新文档
#370
Closed
TylunasLi
closed
11 months ago
TylunasLi
commented
11 months ago
修复pyfastllm命令行示例
cli_simple.py
报错和token拼接错误,实现基本功能,应该能支持ChatGLM以外的模型了。
新手反馈pyfastllm编译走不通,或找不到
cli.py
,故更新文档,
cli_simple.py
报错和token拼接错误,实现基本功能,应该能支持ChatGLM以外的模型了。cli.py
,故更新文档,