We-IOT / chatglm3_6b_finetune

基于chatglm3-6b模型的lora方法的微调
GNU General Public License v3.0
76 stars 13 forks source link

报错,不知道是怎么回事 #17

Open kennponn opened 7 months ago

kennponn commented 7 months ago

RuntimeError: Error(s) in loading state_dict for ChatGLMForConditionalGeneration: size mismatch for transformer.embedding.word_embeddings.weight: copying a param with shape torch.Size([64796, 4096]) from checkpoint, the shape in current model is torch.Size([65024, 4096]). You may consider adding ignore_mismatched_sizes=True in the model from_pretrained method.

We-IOT commented 7 months ago

在尝试加载预训练模型时,如果遇到RuntimeError: Error(s) in loading state_dict for ChatGLMForConditionalGeneration: size mismatch for transformer.embedding.word _embeddings.weight 这类错误,通常是因为预训练模型的参数与当前模型的结构不匹配导致的。具体到这个问题中,错误信息指出在加载状态字典时,transformer.embedding.word _embeddings.weight 的形状不匹配,从检查点复制的参数形状为torch.Size([64796, 4096]),而当前模型中的相应参数形状为torch.Size([65024, 4096])。

你最好把使用的过程描述一下,使用的是lora权重,还是合并的模型,使用哪个代码做的推理,还是训练中出现的问题?