TigerResearch / TigerBot

TigerBot: A multi-language multi-task LLM
https://www.tigerbot.com
Apache License 2.0
2.24k stars 194 forks source link

官方能否提供continue pretrain(增量预训练)的脚本呢? #166

Open listwebit opened 10 months ago

listwebit commented 10 months ago

有几个问题请大佬指导一下: 1.官方能否提供continue pretrain(增量预训练)的脚步呢? 2.如果不能话,我想在领域数据上持续预训练,需要怎么做呢?将微调代码改一下?请大佬详细说一下,谢谢 3.如果用70B的模型持续增量预训练(非lora,全量参数更新),至少需要多少个机器呢?

感谢大佬的回复,祝愿大佬的大模型全球第一

chentigerye commented 10 months ago

感谢支持,

  1. 建议参考我们近期paper, 里面详细介绍了预训练的一些细节:https://arxiv.org/abs/2312.08688
  2. 微调和与训练的代码不同,如果单机,可用我们开源的pretrain代码。train/train_clm.py;领域数据的建议是要混合通用数据
  3. 全参70b,6节点,48卡的a100-40g能跑。