ZixinxinWang / Legal-Eagle-InternLM

Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。
Apache License 2.0
35 stars 4 forks source link
![Image](./img/logo.png)

Legal-Eagle-InternLM

Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。(项目logo由DALL·E生成)

项目的主要贡献者:

@JakChen797@ZixinxinWang@sped-zhang

📖 Introduction

一个简单的项目介绍在Bilibili:Legal-Eagle-InternLM 法律领域大模型介绍

目前在OpenxLab平台发布了一个不包含RAG部分的应用Demo Legal-Eagle-InternLM-withoutRAG ,欢迎体验😁!

Legal-Eagle-InternLM是一款智能法律系统,具备出色的法律文本处理、法律推理和知识检索能力,可适用于多种用户和不同场景,具有以下主要特点:

🚀 News

[2024/02/26] 一个简单的项目介绍在Bilibili:Legal-Eagle-InternLM 法律领域大模型介绍

[2024/02/03] 更新了README_EVAL.md,公布了模型客观评测脚本。

[2024/02/03] 更新了README_RAG.md,公布了检索增强技术细节。

[2024/02/03] 公布了不包含RAG部分的OpenxLab应用Demo Legal-Eagle-InternLM-withoutRAG ,欢迎体验😁。

[2024/02/02] 上传了RAG部分代码,引入200+法律文本。RAG部分基本可以做到准确、快速检索并召回正确的法条。

[2024/02/01] 更新了README_QD.md,进行量化部署实验,公布TurboMind Inference效果和针对不同大小模型不同推理方法的实验结果。

[2024/01/28] 更新了README_SFT.md,完成模型微调任务,公布训练数据集和相关参数细节。

[2024/01/27] 公布了模型微调权重,将权重开源在ModelScope平台。

[2024/01/23] 更新了README.md,确定模型选型、项目流程和进度安排。

😊 Features

本项目基于书生·浦语工具链中InternLM、XTuner、LMDeploy、OpenXLab等链路工具,主要内容有模型的监督微调、检索增强生成、主客观评测与量化部署四个部分:

📚 Release Models

我们推荐使用 Legal-Eagle-InternLM2-chat-7BLegal-Eagle-InternLM2-chat-20B

Model(ModelScope) Base(HuggingFace) Introduction OpenXLab
Legal-Eagle-InternLM-chat-7B-Adapter 🤗InternLM-chat-7B 在30w条法律问答DISC-Law-SFT 数据集 了一版InternLM-chat-7B模型,发布微调后的LoRA权重 -
Legal-Eagle-InternLM-chat-7B-Merged 🤗InternLM-chat-7B 在30w条法律问答DISC-Law-SFT 数据集 了一版InternLM-chat-7B模型,发布完整权重 -
Legal-Eagle-InternLM2-chat-7B-Adapter 🤗InternLM2-chat-7B 在30w条法律问答DISC-Law-SFT 数据集 了一版InternLM2-chat-7B模型,发布微调后的LoRA权重 -
Legal-Eagle-InternLM2-chat-7B-Merged 🤗InternLM2-chat-7B 在30w条法律问答DISC-Law-SFT 数据集 了一版InternLM2-chat-7B模型,发布完整权重 Open in OpenXLab
Legal-Eagle-InternLM2-chat-20B-Adapter 🤗InternLM2-chat-20B 在52k条单轮问答数据集和92k条带有法律依据的情景问答数据集 上微调了InternLM2-chat-20B模型,发布微调后的LoRA权重 -

💼 Requirements

💕 Acknowledgements

本项目基于如下开源项目展开,在此对相关项目和开发人员表示诚挚的感谢:

感谢上海人工智能实验室推出的 书生·浦语大模型实战营 提供的技术指导和算力支持,同样感谢其他限于篇幅未能列举的为本项目提供了重要帮助的工作。

⚠️ Attention

Legal-Eagle-InternLM 存在一些问题和缺陷,这些问题目前大型语言模型尚未完全解决。尽管该模型在许多任务和情境下能够提供法律相关服务,但需要明确的是,该模型仅供用户参考之用,不能代替专业律师和法律专家的意见和建议。我们鼓励使用 Legal-Eagle-InternLM 的用户以批判性的态度来评估模型的输出,并要理解我们不对因使用该模型而引发的任何问题、风险或不良后果承担责任