Open chenmonster opened 6 months ago
emmm 教程没有在colab环境下做过测试,你可以调试一下 看看bug在哪,也可以使用与教程相同的autodl环境
model = AutoModelForCausalLM.from_pretrained(model_dir, device_map='auto', torch_dtype=torch.bfloat16)
将上面的代码改为
model = AutoModelForCausalLM.from_pretrained(model_dir, device_map='cuda', torch_dtype=torch.half, trust_remote_code=True)
重新运行,报错:
OutOfMemoryError: CUDA out of memory.
torch.half 是自动选择半精度加载,有些显卡不支持bf16,但全部显卡应该都支持fp16,这个应该不是导致oom的原因
我也出现这个问题!
我也出现了oom的问题!!
在
colab
环境,执行 llama3lora
微调报错:NotImplementedError: Cannot copy out of meta tensor; no data! 。微调代码如下: