Closed fishfree closed 1 year ago
@fishfree 感谢你对我们项目的关注。 fashcat这个项目是在上周发布的,他们的前身是alpaca,然后在对话数据集上进行微调的项目。 我们的项目要比它们早发布一周多,也是参考alpaca的训练模式。 不过两个项目基底都差不多,我们的项目更加关注低资源和中文。
@Facico 谢谢您的解答!那和 https://github.com/ymcui/Chinese-LLaMA-Alpaca 有什么异同呢?
谢谢解答!虽然看不懂。。。 @Facico 看到一个这个讨论:https://news.ycombinator.com/item?id=35441299 我们是不是也可以借鉴Vicuna的这种思路?
你说的Vicuna的思路唯一的不同就是他们使用的是对话的数据来弄的。我们下一步就是在纯对话上弄一个,不过我们人力物力资源较少,暂时只能使用开源的数据。不过现在很多开源的对话数据质量一般,很多都是以指令的形式的对话数据。gpt4all是英文的数据,我们之前拿这个混起来训过,暂时没看到效果有多大的提升,可能需要更大的模型(比如13B),或者将模型要调试的参数变多。
https://github.com/lm-sys/FastChat 也是叫Vicuna,Chinese-Vicuna 是在其基础上改进的吗?