ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k stars 332 forks source link

目前PEFT仅支持chatglm,什么时候可以支持其他模型,比如baichuan2呢?或者需要改哪些地方,很乐意contribute。 #421

Open jiahuanluo opened 6 months ago

jiahuanluo commented 6 months ago

请问大佬,什么时候可以支持baichuan2+peft的加速呢?或者需要改哪些地方实现支持其他模型呢?

TylunasLi commented 6 months ago

你好!您可以参考 ec31a681 中对chatglm.cpp的修改,修改llama.cpp的相应部分。