Open Symfomany opened 1 year ago
Salut ! Selon le message d'erreur, la mémoire disponible n'est pas suffisante pour le setup actuel. Vous pouvez soit réduire per_device_train_batch_size
(en ajustant éventuellement gradient_accumulation_steps
pour garder un même batch size effectif), quantifier davantage le modèle à 4-bit (voir ce blog), ou bien essayer un checkpoint plus petit comme le 7B
"quantifier davantage le modèle à 4-bit" ⇒ il faut positionner le paramètre --load_in_4bit
en lieu et place de --load_in_8bit
.
Voir cet examples/train/train_sft_chat_lora_int4.sh
Est au lieu d'un seul GPU A100 si je le faisais avec 2 ou 4 GPU en parallèle cela passerais? il faudrait une configuration pour paralleliser le finetuning?
Alors cela avance mais j'ai encore cetet erreur: TypeError: expected str, bytes or os.PathLike object, not NoneType
je sais pas si cele vient de moi
Hello la Team !
J'essaye de finetiner le model vigogne-13b pour y injecter des données juridique avec mon fichiers datas.json
Voici un bout de datas.jsonl:
et voici CLI:
J'ai cette erreur sur un GPU Nvidia P100 Cœurs 10 RAM 42 Go 16Go VRAM:
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 50.00 MiB (GPU 0; 15.89 GiB total capacity; 2.14 GiB already allocated; 10.12 MiB free; 2.14 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Pourtant j'ai suivis qqs variables d'env pour 1 seul GPU:
export WANDB_PROJECT=llm-sft-chat-fr export OMP_NUM_THREADS=1 export TOKENIZERS_PARALLELISM="false" export CUDA_VISIBLE_DEVICES=0