Open 0xDing opened 1 year ago
Hi @0xDing ,感谢分享,这2天刷了好多次终于等到评测了,有评测对比7b或chatgpt的吗,毕竟7b跟13b模型大小也差挺多
Hi @0xDing ,感谢分享,这2天刷了好多次终于等到评测了,有评测对比7b或chatgpt的吗,毕竟7b跟13b模型大小也差挺多
由于GPT4 token比较贵,所以暂时没有做直接评测。 可以在查看https://baichuan-vicuna-eval.pleisto.app/ 上 chatgpt和 llama-vicuna 的答案来做间接比较。
@0xDing 感谢工作分享,方便分享下其在sharegpt数据上的训练损失情况吗?
@0xDing 感谢工作分享,方便分享下其在sharegpt数据上的训练损失情况吗?
我只对权重做了评测的工作,baichuan-vicuna-7b的权重文件由 fireballoon 训练,可以在 https://huggingface.co/fireballoon/baichuan-vicuna-7b/discussions 找到
不错啊,一个7b的中英文模型,在英文评测集上也跑出跟llama 13b接近的效果
mark
请问LLaMA-Vicuna-13B的权重在哪里下载?有相应的微调代码吗?
请问LLaMA-Vicuna-13B的权重在哪里下载?有相应的微调代码吗?
https://huggingface.co/lmsys/vicuna-13b-delta-v1.1 https://github.com/lm-sys/FastChat
Required prerequisites
Questions
首先,分别感谢百川团队以及baichuan-vicuna-7b的工作。 考虑到大家可能对于经过SFT后的模型性能感兴趣(#37 ),在此分享一下使用 FastChat 的评估集由 GPT4 进行打分后的 Baichuan Vicuna 7b的评测结果:
https://baichuan-vicuna-eval.pleisto.app/
考虑到 baichuan-vicuna-7b 主要是用 ShareGPT 数据集做的训练,中文数据占比相对较小,因此直接拿 FastChat 的英文评估集进行评测,并和同样基于 ShareGPT数据集训练的 LLaMA Vicuna 13B 进行横向对比,可能是比较有实际意义的。
由GPT4生成的评测总结如下:
Checklist