ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k stars 332 forks source link

修复非batch下CPU Attention算子取batch错误(#385) #392

Closed TylunasLi closed 8 months ago

TylunasLi commented 8 months ago

修复非batch下CPU Attention算子取batch时,由于没有q___bacth导致错误 (#385 ) 也可以采用 #375 中的处理方案。