ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k stars 341 forks source link

chatglm 失去 function calling 能力 #485

Open NingRiCheng opened 3 months ago

NingRiCheng commented 3 months ago

使用 fastllm 导出 chatglm4的int4和int8的模型,启用openai_server服务,能够正常对话。 但是使用openai的调用函数功能 function calling 不返回。请问这个原因是否是模型结构被改变了