ztxz16 / fastllm

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
Apache License 2.0
3.28k stars 333 forks source link

模型测试benchmark #299

Closed TJSL0715 closed 1 year ago

TJSL0715 commented 1 year ago

请问使用flm格式的模型能否做benchmark,如MMLU、CMMLU等.