Open cxj01 opened 1 year ago
baichuan2 可以继续使用 llama-efficient-tunning 工程微调吗?
可以使用 https://github.com/hiyouga/LLaMA-Efficient-Tuning#supported-models
使用 llama-efficient-tunning 工程微调时loss不下降,同样的数据在 baichuan1代上loss下降的很好,有什么要注意的地方吗
@tumanshu 更新代码
baichuan2 可以继续使用 llama-efficient-tunning 工程微调吗?