jerry1993-tech / Cornucopia-LLaMA-Fin-Chinese

聚宝盆(Cornucopia): 中文金融系列开源可商用大模型,并提供一套高效轻量化的垂直领域LLM训练框架(Pretraining、SFT、RLHF、Quantize等)
https://zhuanlan.zhihu.com/p/633736418
Apache License 2.0
588 stars 61 forks source link

关于测试您的模型的问题 #8

Open jjyu-ustc opened 1 year ago

jjyu-ustc commented 1 year ago

作者您好!我对您的工作非常感兴趣,同时我拿了您发布的权重,想要测试一下您的模型,结果发现效果并不是很理想,我问的是几个您在文档中有提及的问题,下面是我的测试记录

image

llama-7b模型本身就非常容易陷入胡说八道的情况,目前我也在做和您类似的工作,我用的是alpaca-7b的lora 微调算法,发现效果要远好于llama。同时扩充中文词汇量的工作也有人做过了,lora训练后的效果有大幅提升。不知道您接下来是否会尝试一下?目前我的工作发现用chinese-alpaca lora精调,比用llama、vicuna精调的效果都好很多。

jerry1993-tech commented 1 year ago

jjyu-ustc

非常感谢你的反馈! 是的,llama-7b 会存在生成的结果文不对题、以及无法自然地结束生成等情况。 我们正在选用更好的中文基础模型如 baichuan-7B等 继续做金融领域的多任务SFT 模型。 本项目-聚宝盆 作为开源项目,欢迎大家积极参与与贡献idea、代码、数据!

luxinglong commented 1 year ago

在baichuan2这种具有一定金融领域知识的基座模型上,是否还有必要进一步进行二次预训练呢?