Closed Stupid-Ai closed 4 weeks ago
感谢回复,这是cpp的执行方法吗?我只会python,我更新了最新的项目库。但是不管是根据以上代码还是chatglm_export.py都会报这个错误。
感谢回复,这是cpp的执行方法吗?我只会python,我更新了最新的项目库。但是不管是根据以上代码还是chatglm_export.py都会报这个错误。
现在是 model = llm.model("/home/jupyter-szl/glm-4-9b-chat", dtype = "fp16") 这样执行,上面那个hf模型不用创建了
可以了,感谢大佬
已经支持了,目前是直接读hf模型的(./main -p "hf文件夹目录"),文档之后会更新一下