issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.3k
stars
336
forks
source link
修复python脚本转换模型特殊token的错误
#420
Closed
TylunasLi
closed
7 months ago
TylunasLi
commented
7 months ago
修复PR #417 修改后,用torch2flm转换模型时,特殊token字符串的长度错误,导致模型加载失败的问题。
修复PR #417 修改后,用torch2flm转换模型时,特殊token字符串的长度错误,导致模型加载失败的问题。