mymusise / ChatGLM-Tuning

基于ChatGLM-6B + LoRA的Fintune方案
MIT License
3.71k stars 444 forks source link

你好關於python finetune的參數調整 #193

Open TimLeeGee opened 1 year ago

TimLeeGee commented 1 year ago

想訓練一個一百多條問答的文件,但依照以下參數 python finetune.py \ --dataset_path data/alpaca \ --lora_rank 8 \ --per_device_train_batch_size 6 \ --gradient_accumulation_steps 1 \ --max_steps 52000 \ --save_steps 1000 \ --save_total_limit 2 \ --learning_rate 1e-4 \ --fp16 \ --remove_unused_columns false \ --logging_steps 50 \ --output_dir output

訓練出來的模型,在問答上不理想,甚至語無倫次,請問我該朝哪個方向調整會比較好呢? 入門新手,請多包涵。

taofennanhai commented 1 year ago

最好是从学习率开始调整,每次调小一个数量级。微调的数据越多越好。

TimLeeGee commented 1 year ago

最好是从学习率开始调整,每次调小一个数量级。微调的数据越多越好。

謝謝,我試試。