issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k
stars
333
forks
source link
提升torch2flm转换时4bit模型的量化精度
#345
Closed
siemonchan
closed
11 months ago
siemonchan
commented
11 months ago
将torch2flm.py中量化权重为4bit时的策略改为非对称量化,以提升4bit模型精度
将torch2flm.py中量化权重为4bit时的策略改为非对称量化,以提升4bit模型精度