Open kevinchi8781 opened 7 months ago
这个不是量化版本
通过llama.cpp转为gguf格式,用于ollama运行,转为了一个14.9 GB的gguf文件,然后运行,不回答问题,报错~不知道为啥,或者楼主能提供一个gguf版嘛?
llama.cpp怎么转的啊。我一直显示失败
使用llama.cpp的convert.py可以转gguf,记得加上参数:--vocab-type bpe,完整的命令如下: python convert.py you_hf_model_path --outfile output_model_file_path --outtype f16 --vocab-type bpe,另外可以编译llama.cpp使用quantize命令量化到4 bits
通过llama.cpp转为gguf格式,用于ollama运行,转为了一个14.9 GB的gguf文件,然后运行,不回答问题,报错~不知道为啥,或者楼主能提供一个gguf版嘛?