issues
search
ztxz16
/
fastllm
纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.33k
stars
341
forks
source link
C++支持直接读取Deepseek Coder V1系列HF模型
#483
Closed
TylunasLi
closed
3 months ago
TylunasLi
commented
4 months ago
根据Jinja模板引擎的文档,支持了“{%-”和“-%}”的去空白语义。
Jinja模板引擎支持了namespace的创建和参数读取,因此可以支持Deepseek Coder V1的chat_template
测试情况
在以下模型测试过
deepseek-ai/Deepseek-Coder-1.3B-Instruct
deepseek-ai/Deepseek-Coder-6.7B-Instruct
测试情况
在以下模型测试过