issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k
stars
341
forks
source link
提供一个兼容OpenAI 接口的http server
#453
Closed
MistSun-Chen
closed
6 months ago
wanglufei1
commented
4 months ago
从代码上看目前只支持 /v1/chat/completions 接口,请问其他接口有计划增加适配吗?
从代码上看目前只支持 /v1/chat/completions 接口,请问其他接口有计划增加适配吗?