Closed imchangyue closed 8 months ago
你的模型从哪儿来的?词表大小很奇怪,报错信息显示是32001,既不是原版英文llama,也不是我们的中文llama。
ls ./models 65B 30B 13B 7B tokenizer_checklist.chk tokenizer.model
ls ./models 65B 30B 13B 7B vocab.json
python3 -m pip install -r requirements.txt
python3 convert.py models/7B/
python convert.py models/7B/ --vocabtype bpe
./quantize ./models/7B/ggml-model-f16.gguf ./models/7B/ggml-model-q4_0.gguf q4_0
./quantize ./models/7B/ggml-model-q4_0.gguf ./models/7B/ggml-model-q4_0-v2.gguf COPY
./main -m ./models/7B/ggml-model-q4_0.gguf -n 128 我是在运行这一步的时候卡住了 Exception: Vocab size mismatch (model has 32000, but models\7B-chat\tokenizer.model has 32001) 在这一步的时候我改了一个.json文件里面的参数,但是最后运行到这一步卡住了,但是这一次改参数不好使了 因为我下的modelscope里面的7B-chat,链接是这个:https://modelscope.cn/models/modelscope/Llama-2-7b-chat-ms/summary
我不太清楚modelscope你下载的模型是不是原版llama-2。原版llama-2(或llama-2-chat)的词表大小就是32000,直接转换不会报这个问题,你可以考虑从其他地方下载,比如huggingface。你可以只下载tokenizer、config进行替换,看看能不能解决(前提是你从modelscope下载的权重里词表大小是32000)。
P.S. 你的这个问题和我们的项目无关,我就先关闭了。
提交前必须检查以下项目
问题类型
模型量化和部署
基础模型
LLaMA-7B
操作系统
Windows
详细描述问题
依赖情况(代码类问题务必提供)
运行日志或截图