ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k stars 332 forks source link

fastllm是否支持经过自己p-tuning v2后的chatGLM3-6b呢 #393

Closed aofengdaxia closed 7 months ago

aofengdaxia commented 8 months ago

如题。我看到readme中有支持lora微调的模型,请问是否支持p-tuning的模型

TylunasLi commented 8 months ago

参考 #371 ,目前还不支持p-tuning微调模型。