ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k stars 341 forks source link

提供一个兼容OpenAI 接口的http server #453

Closed MistSun-Chen closed 6 months ago

wanglufei1 commented 4 months ago

从代码上看目前只支持 /v1/chat/completions 接口,请问其他接口有计划增加适配吗?