DISC-FinLLM 是一个专门针对金融场景下为用户提供专业、智能、全面的金融咨询服务的金融领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC) 开发并开源。
我们将在该项目中开源如下资源:
您可以通过访问这个链接来在线体验我们的 DISC-FinLLM。
DISC-FinLLM是一个金融领域的大语言模型,是由面向不同金融场景的4个模组:金融咨询、金融文本分析、金融计算、金融知识检索问答构成的多专家智慧金融系统。这些模组分别在金融NLP任务、人类试题、资料分析和时事分析等四个评测中展现出明显优势,证明了DISC-FinLLM能为广泛的金融领域提供强有力的支持。DISC-FinLLM能在不同应用场景下提供帮助,可用于实现不同的功能:
DISC-FinLLM是基于我们构建的高质量金融数据集DISC-Fin-SFT在通用领域中文大模型Baichuan-13B-Chat上进行LoRA指令微调得到的金融大模型。DISC-Fin-SFT总共包含约25万条数据,分为四个子数据集,它们分别是金融咨询指令、金融任务指令、金融计算指令、检索增强指令。
数据集 | 数据量 | 输入长度 | 输出长度 |
---|---|---|---|
金融咨询指令 | 63k | 26 | 369 |
金融任务指令 | 110k | 676 | 35 |
金融计算指令 | 57k | 73 | 190 |
检索增强指令 | 20k | 1031 | 521 |
DISC-Fin-SFT | 246k | 351 | 198 |
金融咨询指令数据来源于三部分:
在引导ChatGPT生成数据的过程中,我们通过精心设计的prompt确保生成的问答符合中国的国情、立场、态度和语言风格。
金融任务指令数据来源于两个部分:
数据集 | 主要任务类型 | 次要任务类型 | 数据量 |
---|---|---|---|
FPB | 情感分析 | 情感分析 | 18690 |
FIQA-SA | 情感分析 | 情感分析 | - |
FNSC | 情感分析 | 情感分析 | - |
CCKS-NEC-2022 | 信息抽取 | 因果抽取 | 7499 |
SmoothNLP IEE | 信息抽取 | 事件抽取 | 3256 |
SmoothNLP NHG | 文本生成 | 文本生成 | 4642 |
CCKS2022-event | 文本分类 | 事件类型分类 | 3578 |
Minds14 | 文本分类 | 意图识别 | 59143 |
Financial Report | 信息抽取 | 实体抽取 | 61705 |
OpenKG | 信息抽取 | 实体抽取 | 7672 |
OpenKG | 信息抽取 | 实体抽取 | 67921 |
FDDC2018 | 翻译 | 术语翻译 | 333 |
Wealth-alpaca-lora | 文本生成 | 关键词生成 | 41825 |
在金融计算中,表达式计算器、方程求解器、正态概率表、计数器四种工具可以帮助模型完成大多数的计算任务。四种工具各有不同的调用命令、输入和输出。例如,计算器的命令是 [Calculator(expression)→result]。在这一部分,构建金融计算指令的目的就是训练模型在合适的时候调用这些工具解决数学问题。四个工具的定义如下表所示: | 工具名称 | 工具描述 |
---|---|---|
表达式计算器 | 输入:初等函数的数学表达式 | |
输出:表达式的计算结果(小数表示) | ||
方程求解器 | 输入:方程组 | |
输出:方程组的解 | ||
计数器 | 输入:包含数据样本的数组 | |
输出:样本数量 | ||
概率表 | 输入:数字 | |
输出:正态分布累积分布函数在这个数字处的值 |
首先构建了一个种子任务库,其中的种子任务由三部分组成:根据金融考试人工改写的计算题、带有研报上下文的数据计算题、BELLE数据集中校园数学部分的通用数学题。特别地,根据Toolformer的方法,这些问题的答案中插入着上述四个工具的调用命令,它们代表着调用工具的方法和时机。随后,为了增加数据的数量和多样性,我们通过小样本思维链提示(Few-shot Chain-of-Thought Prompting)方法,让ChatGPT在提示词的引导下,根据种子任务生成超过5万个新问答对,其中的答案也带有插件命令。
检索增强指令的构造分为三步。第一步,我们根据新闻和研报等金融文本构造金融分析问题。第二步,我们在知识库中检索与问题有关的文档,其中参考文档源于我们构建金融知识库,包含18k研报和69k金融新闻。第三步,我们将问题和参考资料结合在一起,生成问题的答案。在这个过程中,问题和答案是由ChatGPT通过Chain-of-Retrieval (CoR) prompting方法生成的。最终我们构建了一个由20k条检索增强指令组成的数据集,其中的指令涵盖了金融领域中主要的分析形式,包括行业分析、政策分析、投资建议、公司战略规划等。
我们展示了DISC-FinLLM-SFT 训练数据样例,您可以访问这个链接下载数据集。
针对金融领域的不同功能,我们首先采用了多专家微调的训练策略。我们在特定的子数据集上训练模型的各个模组,使它们彼此互不干扰,独立完成不同任务。为此,我们以Baichuan-13B-Chat为基座模型,使用LoRA方法高效地进行参数微调。
通过数据集的四个部分,分别训练4个LoRA专家模组。部署时,用户只需更换在当前基座上的LoRA参数就可以切换功能。因此用户能够根据使用需求激活/停用模型的不同模组,而无需重新加载整个模型。4个LoRA专家模组分别如下:
您可以直接从 Hugging Face 上下载我们的LoRA模型权重。
我们以Baichuan-13B-Chat为基座模型,混合了所有数据,在 8 * Nvidia A800 80 GB + deepspeed 的环境下进行了全量微调测试。
您可以直接从 Hugging Face 上下载我们的全参模型权重。
当前版本的 DISC-FinLLM 是基于Baichuan-13B-Chat训练得到的。我们分别使用不同数据进行了LoRA训练,以及使用全部数据进行了全参训练。您可以直接从 Hugging Face 上下载我们的模型权重。
首先,您需要安装项目的依赖环境。
pip install -r requirements.txt
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation.utils import GenerationConfig
from peft import PeftModel, PeftConfig
model_path = "Go4miii/DISC-FinLLM"
model = AutoModelForCausalLM.from_pretrained(
model_path, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True
)
model.generation_config = GenerationConfig.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(
model_path, use_fast=False, trust_remote_code=True,
)
messages = [
{"role": "user", "content": "请解释一下什么是银行不良资产?"},
]
response = model.chat(tokenizer, messages)
print(response)
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation.utils import GenerationConfig
from peft import PeftModel, PeftConfig
model_path = "Go4miii/DISC-FinLLM"
model = AutoModelForCausalLM.from_pretrained(
model_path, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True
)
model.generation_config = GenerationConfig.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(
model_path, use_fast=False, trust_remote_code=True,
)
model = PeftModel.from_pretrained(model, lora_path
)
messages = [
{"role": "user", "content": "请解释一下什么是银行不良资产?"},
]
response = model.chat(tokenizer, messages)
print(response)
我们的四个LoRA路径,使用时将上述lora_path替换为下面路径就可以:
lora_path=‘Go4miii/DISC-FinLLM/Baichuan-13B-Chat-lora-Task’
lora_path=‘Go4miii/DISC-FinLLM/Baichuan-13B-Chat-lora-Consulting’
lora_path=‘Go4miii/DISC-FinLLM/Baichuan-13B-Chat-lora-Computing’
lora_path=‘Go4miii/DISC-FinLLM/Baichuan-13B-Chat-lora-Retrival’
python cli_demo.py
依靠 streamlit 工具运行以下命令,会在本地启动一个 web 服务,把控制台给出的地址输入浏览器即可访问:
streamlit run web_demo.py --server.port 8888
此外,目前版本的 DISC-FinLLM 是以 Baichuan-13B 作为基座的,您可以参照 Baichuan-13B 的介绍来进行 int8 或 int4 量化推理部署以及 CPU 部署。
我们建立了一个全面的评估框架 —— DISC-Fin-Eval Benchmark,从各个角度严格评估我们的模型。该评估框架包括四个不同的组成部分,即:金融NLP任务、人类试题、资料分析和时事分析。这一评估框架全面地证明了我们模型能力和训练数据的有效性。您可以点击此链接使用我们的 DISC-Fin-Eval-Benchmark。
我们使用FinCUGE评估基准测试模型处理金融NLP任务的能力。这个评测一共包含八项任务,其中包括情感分析、关系抽取、文本摘要、文本分类、事件抽取和其他任务。我们通过提示模板将这个数据集改造为小样本(few-shot)形式,使用常用的准确度(accuracy)、F1和Rouge指标评价模型的表现,来衡量模型在金融领域中理解文本和生成相关回答的能力。评测结果(%)如下: | 模型 ↓ 评测集 → | FinFE (Accuracy) | FinQA (F1) | FinCQA (F1) | FinNA (ROUGE) | FinRE (F1) | FinESE (F1) | 平均值 |
---|---|---|---|---|---|---|---|---|
Baichuan-13B-Chat | 64.8 | 38.1 | 33.6 | 31.0 | 9.1 | 18.6 | 31.0 | |
(LoRA) | 69.3 | 42.4 | 42.0 | 30.9 | 10.1 | 45.3 | 40.0 | |
ChatGLM | 56.7 | 31.8 | 35.1 | 32.5 | 13.0 | 48.7 | 36.3 | |
(LoRA) | 60.7 | 41.4 | 36.4 | 34.7 | 10.7 | 46.2 | 38.4 | |
ChatGLM2 | 61.3 | 28.8 | 35.9 | 28.9 | 11.7 | 42.1 | 34.8 | |
(LoRA) | 65.3 | 37.6 | 36.4 | 33.4 | 11.8 | 39.5 | 37.3 |
你可以在这里查看我们金融NLP任务评测的具体内容。
我们使用了FIN-Eval基准评估模型在回答真人生成的金融问题上的能力,这个基准涵盖了金融、经济、会计、证书等学科的高质量多项选择题。我们以准确度为指标,来衡量模型的表现。评测结果(%)如下: | 模型 | 金融 | 经济 | 会计 | 证书 | 平均值 |
---|---|---|---|---|---|---|
GPT-4 | 71.0 | 74.5 | 59.3 | 70.4 | 68.6 | |
ChatGPT | 59.3 | 61.6 | 45.2 | 55.1 | 55.0 | |
Baichuan-13B-Base | 52.6 | 50.2 | 43.4 | 53.5 | 50.1 | |
Baichuan-13B-Chat | 51.6 | 51.1 | 41.7 | 52.8 | 49.4 | |
ChatGLM2-6B | 46.5 | 46.4 | 44.5 | 51.5 | 47.4 | |
InternLM-7B | 49.0 | 49.2 | 40.5 | 49.4 | 47.1 | |
InternLM-Chat-7B | 48.4 | 49.1 | 40.8 | 49.5 | 47.0 | |
LLaMA-2-Chat-70B | 47.1 | 46.7 | 41.5 | 45.7 | 45.2 | |
FinGPT-v3-6B | 50.5 | 42.5 | 50.8 | 52.1 | 49.6 | |
DISC-FinLLM (金融咨询) | 54.4 | 45.4 | 52.8 | 51.8 | 51.6 | |
DISC-FinLLM (金融任务) | 57.4 | 48.8 | 49.5 | 49.7 | 51.5 | |
DISC-FinLLM (检索增强) | 56.1 | 44.0 | 49.5 | 50.6 | 50.6 | |
DISC-FinLLM (金融计算) | 54.8 | 50.2 | 46.9 | 50.6 | 50.9 | |
DISC-FinLLM (全数据) | 53.8 | 47.9 | 42.0 | 49.1 | 48.7 |
我们手动构造了一个由100个财经计算题组成的数据集,用于评估模型在计算任务中的能力。这些测评问题改编自中国行政职业能力测验中的材料分析计算题,包括计算同比增长率和产值比例等。我们根据模型给出计算公式和计算结果的正确率来评估模型的表现。评测结果如下: | 计算公式 | 计算公式与结果 | |
---|---|---|---|
GPT-3.5-turbo | 0.28 | 0.26 | |
Baichuan-13B-Chat | 0.20 | 0.12 | |
DISC-FinLLM (金融计算) | 0.35 | 0.35 |
此评测基于GPT-3.5模型作出评估。我们构建了一个金融问题数据集,其中的问题需要模型使用最新信息来获得准确答案。然后我们在谷歌等搜索引擎中手动搜索,以收集与每个问题相关的多个参考文段。该数据集旨在评估出模型在回答金融问题时检索信息的相关性和准确性,我们用四个指标评价模型的表现,即准确性、实用性、语言质量和思考性。评测结果如下: | 准确性 | 实用性 | 语言质量 | 思考性 | |
---|---|---|---|---|---|
Baichuan-13B-Chat | 4.08 | 4.15 | 4.21 | 3.88 | |
DISC-FinLLM (检索增强) | 4.13 | 4.29 | 4.33 | 3.95 |
本项目基于如下开源项目展开,在此对相关项目和开发人员表示诚挚的感谢:
同样感谢其他限于篇幅未能列举的为本项目提供了重要帮助的工作。
DISC-FinLLM 有着目前大语言模型尚无法克服的问题和缺陷,尽管它能够在许多任务和情境上提供金融领域的服务,但模型应当仅供用户参考使用,并不能替代专业金融分析师和金融专家,我们希望使用 DISC-FinLLM 的用户以批判性的眼光去评估模型。我们不对因使用 DISC-FinLLM 所引发的任何问题、风险或不良后果承担责任。
如果我们的项目对您的研究和工作有帮助,请如下引用我们的项目:
@article{chen2023disc,
title={DISC-FinLLM: A Chinese Financial Large Language Model based on Multiple Experts Fine-tuning},
author={Chen, Wei and Wang, Qiushi and Long, Zefei and Zhang, Xianyin and Lu, Zhongtian and Li, Bingxuan and Wang, Siyuan and Xu, Jiarong and Bai, Xiang and Huang, Xuanjing and Wei, Zhongyu},
journal={arXiv preprint arXiv:2310.15205},
year={2023}
}
DISC-FinLLM 可在 Apache 许可证下使用。请查看 LICENSE 文件获取更多信息。