ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k stars 333 forks source link

提升torch2flm转换时4bit模型的量化精度 #345

Closed siemonchan closed 11 months ago

siemonchan commented 11 months ago

将torch2flm.py中量化权重为4bit时的策略改为非对称量化,以提升4bit模型精度