Xunzi-LLM-of-Chinese-classics / XunziALLM

Apache License 2.0
229 stars 22 forks source link

中文  |  English

荀子系列大语言模型

本次荀子系列模型开源包括两个部分:基座模型XunziALLM,作为本次模型开源的重点,本项目推出了完全开放使用的古籍领域大模型,与此同时,为方便非人工智能领域人员更好地了解本次开源模型,我们使用一部分数据构建了对话模型XunziChat,用户可使用与调用千问、Baichuan2、ChatGLM3 、Qwen1.5等对应开源模型一致方法调用我们的古籍处理模型。

当前已发布的古籍大模型:

模型名称 下载链接 对应开源模型
Xunzi-Qwen-7B(基座模型) 链接 Qwen-7B基座模型(版本v1.0.5)
Xunzi-Qwen-7B-CHAT(对话模型) 链接 Qwen-7B对话模型
Xunzi-GLM-6B(基座模型) 链接 ChatGLM3-6B基座模型
Xunzi-Baichuan-7B(基座模型) 链接 Baichuan2-7B基座模型
Xunzi-Qwen1.5-4B(基座模型) 链接 Xunzi-Qwen1.5-4B基座模型
Xunzi-Qwen1.5-7B(基座模型) 链接 Xunzi-Qwen1.5-7B基座模型
Xunzi-Qwen1.5-14B(基座模型) 链接 Xunzi-Qwen1.5-14B基座模型
Xunzi-Qwen1.5-7B_chat(对话模型) 链接 Xunzi-Qwen1.5-7B_chat对话模型
Xunzi-Qwen2-7B(基座模型) 链接 Xunzi-Qwen2-7B基座模型
Xunzi-Qwen2-1.5B(基座模型) 链接 Xunzi-Qwen2-1.5B基座模型

Xunzi-Qwen-7B与Xunzi-Qwen-7B-CHAT调用方式与Qwen模型相同。

Xunzi-GLM-6B调用方式与ChatGLM3-6B模型相同。

Xunzi-Baichuan-7B调用方式与Baichuan2-7B模型相同。

Xunzi-Qwen1.5-7B,Xunzi-Qwen1.5-14B,Xunzi-Qwen1.5-4B与Xunzi-Qwen1.5-7B_chat的调用方式与Qwen1.5模型相同。

Xunzi-Qwen2-7B与Xunzi-Qwen2-1.5B的调用方式与Qwen2模型相同。

新闻

荀子系列模型亮点:

index

ner

poetry

translation

reading_comprehension

pos

punctuation

由于我们同时发布了基座模型,用户也可以根据自己的需求,使用本地的训练语料微调荀子基座模型,使得其能够在古籍下游处理任务上取得更佳的处理性能。

API调用

使用第三方python库openai,调用Xunzi-Qwen1.5-7B_chat实现对话。

from openai import OpenAI
from tqdm import tqdm
openai_api_key = "ANY THING"
openai_api_base = "http://xunziallm.njau.edu.cn:21180/v1"
client = OpenAI(
    api_key=openai_api_key,
    base_url=openai_api_base,
)

for i in tqdm(range(0,1)):
    chat_response = client.chat.completions.create(
        model="/home/gpu0/xunzi_web/Xunzi-Qwen1.5-7B_chat",
        messages=[
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": '根据提供的文本,按照关系scheme组合(人物, PO/官職, 官職),(人物, PP/態度傾向/消極, 人物),(人物, PL/其他, 地点),(人物, PL/居, 地点),(人物代词, 態度傾向/消極, 人物)抽取出符合描述的关系三元组\n奏上,上令公卿列侯宗室集議,莫敢難,獨竇嬰爭之,由此與錯有卻。'},
        ]
    )
    print(chat_response.choices[0].message.content)

声明:

荀子系列大语言模型在处理中华古籍文本信息方面表现出了不错的性能,不仅能够准确剖析古籍文本的复杂性,还可以进一步挖掘中国传统文化的丰富内涵。然而,我们也清楚地认识到,本模型仍有许多需要改进和优化的地方。因此,我们非常欢迎和鼓励用户对我们的模型提出宝贵的意见和建议,并且在后续工作中,我们会推出具有更好性能的新版本大语言模型。

大语言模型庞大的参数量也带来了更多的随机性,虽然我们在训练数据选取时已经尽可能保证了数据的合规性,但由于数据和模型的复杂性,仍有可能存在一些无法避免的问题。因此,如果由于使用本开源模型而导致的各种问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。

此外,根据国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》,在训练、使用本模型以及其他生成式模型,请依据相关法律法规,为构建和谐、健康、可持续的生成式人工智能社区共同努力。

如果您在模型使用过程中有任何疑问,欢迎联系我们(zhaozhixiao@stu.njau.edu.cn)

致谢

衷心感谢以下合作单位与研究者对本项目的大力支持:

南京理工大学经济管理学院信息系

南京师范大学文学院

中国国家图书馆