Open Rastapar opened 2 months ago
No usaremos C4 200M para esto en principio porque no son conversaciones orgánicas entre usuarios. Serán corpus del tipo TSCC.
Fine Tunear Llama3 8b con TSCC.
Leer el TSCC y procesar los datos
De la lista de datasets que ha pasado JA, mirar cuales sirven para hacer Fine-Tuning del LLM. El objetivo es crear un modelo que hable como profesor (sin importar en qué campo), por lo que será como un profesor universal.
Probar los framework “Llama-Factory” y “Axotolt” para hacer Fine-Tuning de un LLM. Puede que no haga falta hacer un código para eso.
Comandos interesantes para Llama-Factory:
CUDA_VISIBLE_DEVICES=1 GRADIO_SHARE=1 llamafactory-cli webui
llamafactory-cli train -h
CUDA_VISIBLE_DEVICES=1 llamafactory-cli train --stage sft --do_train True --model_name_or_path meta-llama/Meta-Llama-3-8B --finetuning_type lora --quantization_bit 4 --template llama3 --flash_attn auto --dataset_dir data --dataset TSCC_sharegpt --cutoff_len 128 --learning_rate 5e-05 --num_train_epochs 10.0 --max_samples 100000 --per_device_train_batch_size 20 --gradient_accumulation_steps 8 --lr_scheduler_type cosine --max_grad_norm 1.0 --logging_steps 5 --save_steps 100 --warmup_steps 0 --optim adamw_torch --packing False --report_to none --output_dir saves/LLaMA3-8B/lora/try1 --fp16 True --lora_rank 8 --lora_alpha 16 --lora_dropout 0 --lora_target q_proj,v_proj --plot_loss True --overwrite_output_dir True
Buscar algun modelo que actue como profesor de inglés, es decir, que pueda mantener una conversacion profesor-alumno. Fine-tunear si es necesario. Mirar qué corpus usar para el Fine Tuning. En un principio está el de C4 200M.