shibing624 / MedicalGPT

MedicalGPT: Training Your Own Medical GPT Model with ChatGPT Training Pipeline. 训练医疗大模型,实现了包括增量预训练(PT)、有监督微调(SFT)、RLHF、DPO、ORPO。
Apache License 2.0
2.93k stars 451 forks source link

医学大模型全流程体验 #377

Open YoshuaBengio opened 1 month ago

YoshuaBengio commented 1 month ago

Describe the Question

Please provide a clear and concise description of what the question is. 大佬可以提供一个关于从预训练到SFT再到RLHF的各个阶段训练即推理的例子吗,把这几个串一下,比如预训练后,推理测试,感觉ok后,再进入SFT阶段,完后再推理测试,以此类推,这样有利于大家一起来讨论这个过程中需要改进的点?多谢了

shibing624 commented 1 month ago

https://colab.research.google.com/drive/1kMIe3pTec2snQvLBA00Br8ND1_zwy3Gr?usp=sharing

YoshuaBengio commented 1 month ago

感谢老师,我也会将这个项目推荐给从事医学大模型相关研究的同事们的。 ---- 回复的原邮件 ---- 发件人Ming Xu @.>发送日期2024年5月20日 @.>@.>, @.>主题Re: [shibing624/MedicalGPT] 医学大模型全流程体验 (Issue #377) https://colab.research.google.com/drive/1kMIe3pTec2snQvLBA00Br8ND1_zwy3Gr?usp=sharing — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>