deepseek-ai / DeepSeek-MoE

DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models
MIT License
982 stars 48 forks source link

您们好请问准备开源的moe-145b什么时候准备上传呢? #25

Open win10ogod opened 7 months ago

win10ogod commented 7 months ago

您们好请问准备开源的moe-145b什么时候准备上传呢? @luofuli 请问后续还有开源计画吗?

luofuli commented 7 months ago

您们好请问准备开源的moe-145b什么时候准备上传呢? @luofuli 请问后续还有开源计画吗?

正在训练中,敬请期待~

win10ogod commented 7 months ago

您们好请问准备开源的moe-145b什么时候准备上传呢? @luofuli 请问后续还有开源计画吗?

正在训练中,敬请期待~

感谢您的答覆,我一直觉得可惜的是数据的量比较少,如果能出角色扮演用的模型,那就太好了

Joeyzhouqihui commented 7 months ago

请问可以对这个开源时间点有一些估计吗?大概啥时候呢?真的非常期待你们的模型!