Open kennponn opened 7 months ago
在尝试加载预训练模型时,如果遇到RuntimeError: Error(s) in loading state_dict for ChatGLMForConditionalGeneration: size mismatch for transformer.embedding.word _embeddings.weight 这类错误,通常是因为预训练模型的参数与当前模型的结构不匹配导致的。具体到这个问题中,错误信息指出在加载状态字典时,transformer.embedding.word _embeddings.weight 的形状不匹配,从检查点复制的参数形状为torch.Size([64796, 4096]),而当前模型中的相应参数形状为torch.Size([65024, 4096])。
你最好把使用的过程描述一下,使用的是lora权重,还是合并的模型,使用哪个代码做的推理,还是训练中出现的问题?
RuntimeError: Error(s) in loading state_dict for ChatGLMForConditionalGeneration: size mismatch for transformer.embedding.word_embeddings.weight: copying a param with shape torch.Size([64796, 4096]) from checkpoint, the shape in current model is torch.Size([65024, 4096]). You may consider adding
ignore_mismatched_sizes=True
in the modelfrom_pretrained
method.