OptimalScale / LMFlow

An Extensible Toolkit for Finetuning and Inference of Large Foundation Models. Large Models for All.
https://optimalscale.github.io/LMFlow/
Apache License 2.0
8.22k stars 818 forks source link

Finetuning Chinese models #62

Open stevezhang88 opened 1 year ago

stevezhang88 commented 1 year ago

看到你们展示的都是英文的交互界面,请问是否可以用中文来训练? 这里也有一个问题,如果基于LLaMa训练的话,中文instruct是否有效?期待回答。谢谢。

hendrydong commented 1 year ago

您好,我们是支持中文的,但由于LLaMA 预训练中文语料较少,做微调的时候可能需要更多高质量语料才能达到较好效果。如果您有比较好的数据的话可以尝试,我们也在做一些尝试和迭代,会跟大家一并分享。

nuoma commented 1 year ago

我看到你们有提到glm,但是还没有放相关的资料上去是吗?谢谢

shizhediao commented 1 year ago

Hi, 目前开源的代码还不支持encoder-decoder类型的模型。glm版本我们正在测试代码正确性,这周会放出~

paulrich1234 commented 1 year ago

所以在LLAMA 大部分是英文语料的前提下,使用Lora的模式去进行instruct 会有很大的语料数据偏差 ,进而达不到很好的效果? 我的理解对吗? 谢谢 大神

您好,我们是支持中文的,但由于LLaMA 预训练中文语料较少,做微调的时候可能需要更多高质量语料才能达到较好效果。如果您有比较好的数据的话可以尝试,我们也在做一些尝试和迭代,会跟大家一并分享。

shizhediao commented 1 year ago

所以在LLAMA 大部分是英文语料的前提下,使用Lora的模式去进行instruct 会有很大的语料数据偏差 ,进而达不到很好的效果? 我的理解对吗? 谢谢 大神

您好,我们是支持中文的,但由于LLaMA 预训练中文语料较少,做微调的时候可能需要更多高质量语料才能达到较好效果。如果您有比较好的数据的话可以尝试,我们也在做一些尝试和迭代,会跟大家一并分享。

是有这种可能的。如果有一些专有的中文大模型基座,进行finetune,效果会好很多

stevezhang88 commented 1 year ago

cerebras发布了很多GPT基座,1.3B,2.7B,6.7B,13B。你们能用这些模型试试中文LoRA训练效果吗?期待。

Meimin-Wang commented 1 year ago

我同样比较期待能够支持Encoder-Decoder的Fine-tune,我们有资源可以训练GLM-130B,但是苦于人少和技术能力差距,很难实现,期待你们对Encoder-Decoder架构的支持。

Hi, 目前开源的代码还不支持encoder-decoder类型的模型。glm版本我们正在测试代码正确性,这周会放出~

shizhediao commented 1 year ago

cerebras发布了很多GPT基座,1.3B,2.7B,6.7B,13B。你们能用这些模型试试中文LoRA训练效果吗?期待。

GPT类的基座模型可以直接使用LMFlow进行Finetune,欢迎大家在自己的高质量数据集上尝试并汇报结果

shizhediao commented 1 year ago

我同样比较期待能够支持Encoder-Decoder的Fine-tune,我们有资源可以训练GLM-130B,但是苦于人少和技术能力差距,很难实现,期待你们对Encoder-Decoder架构的支持。

Hi, 目前开源的代码还不支持encoder-decoder类型的模型。glm版本我们正在测试代码正确性,这周会放出~

感谢期待,Encoder-Decoder式的finetune会尽快支持。