Closed ShepherdX closed 1 month ago
或许你应该看一下readme中SFT需要的配置
意思是max_length增大到4096之后,需要使用A100才能做lora微调吗?
或许你应该看一下readme中SFT需要的配置
想请教这个这个显存占用主要是哪部分?因为同样的数据使用llama3-8B微调,最大长度可以支持到8k。
你可能应该看一下readme中SFT需要的配置
他的这个训练配置文件是lora.yaml吧
遇到相同问题,多块显卡 还CUDA out of memory.
GLM-4.0731.gitraw per_device_train_batch_size: 1 writer_batch_size=1 batch_size=1 GLM-4/finetune_demo# CUDA_VISIBLE_DEVICES=1 python finetune_vision.py 报错 OutOfMemoryError: CUDA out of memory. Tried to allocate 1.22 GiB (GPU 0; 47.54 GiB total capacity; 44.83 GiB already allocated; 1.07 GiB free; 46.13 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
OutOfMemoryError: CUDA out of memory的问题 请问是不是要更新代码还是要更新模型文件?
0821更新代码和更新模型文件没有用,仍然OutOfMemoryError 请问finetune最低显存多少?应该如何配置?这个问题还应该从何排查(环境版本?显存爆处的代码)
System Info / 系統信息
使用lora微调时,出现OOM。
配置文件如下
报错信息
Who can help? / 谁可以帮助到您?
No response
Information / 问题信息
Reproduction / 复现过程
Expected behavior / 期待表现
顺利完成微调任务