shibing624 / MedicalGPT

MedicalGPT: Training Your Own Medical GPT Model with ChatGPT Training Pipeline. 训练医疗大模型,实现了包括增量预训练(PT)、有监督微调(SFT)、RLHF、DPO、ORPO。
Apache License 2.0
2.94k stars 452 forks source link

大佬好,请教几个模型训练问题 #336

Closed xxyp closed 4 months ago

xxyp commented 4 months ago

Describe the Question

1、增量预训练使用的是base模型吧?chat模型可以增量预训练吗,chat模型增量预训练会破坏chat的能力吗? 2、如果使用base模型进行增量预训练,sft的时候是不是得使用比较多的通用指令或者垂域数据重新进行指令微调才会有比较好的结果?

shibing624 commented 4 months ago

1、PT可以用base、chat都行,chat模型继续PT会劣化其对齐能力,需要再SFT;

  1. 是。
xxyp commented 4 months ago

嗯嗯好的,了解,感谢大佬~