ChatLunaLab / chatluna

多平台模型接入,可扩展,多种输出格式,提供大语言模型聊天服务的插件
https://chatluna.chat
GNU Affero General Public License v3.0
140 stars 19 forks source link
bard bing-chat-ai bot chatbot chatglm chatglm2 chatgpt chatgpt3 gemini google-bard-app gpt koishi newbing openai plugin poe poe-bot qq-bot sydney typescript
项目图标 # _多平台模型接入,可扩展,多种输出格式,提供大语言模型聊天服务的机器人插件。_ [![npm](https://img.shields.io/npm/v/koishi-plugin-chatluna/next)](https://www.npmjs.com/package/koishi-plugin-chatluna) [![npm](https://img.shields.io/npm/dm/koishi-plugin-chatluna)](https://www.npmjs.com/package/koishi-plugin-chatluna) ![node version](https://img.shields.io/badge/node-%3E=18-green) ![github top language](https://img.shields.io/github/languages/top/ChatLunaLab/chatluna?logo=github) [![Telegram](https://img.shields.io/badge/Join-Telegram_Group-blue)](https://t.me/koishi_chatluna) [![QQ](https://img.shields.io/badge/Join-QQ_Group-ff69b4)](http://qm.qq.com/cgi-bin/qm/qr?_wv=1027&k=eEBVq6GK7HYX2y61x55WD6hnXTIRop-0&authKey=i4pG5%2BJ%2FY8auWprBubhremTkn3vroPigQq5m9RENGBLrLmlj%2BSu3G%2BqllK7Wts2M&noverify=0&group_code=282381753) [![doc](https://img.shields.io/badge/See-Document(WIP)-green)](https://chatluna.chat/) **项目状态:缓慢迭代到 1.0 正式版(急需人手补全文档)**

截图

施工中.....

特性

TODO (画饼是吧)

部署

我们可在 Koishi 下直接安装本插件使用基础功能而无需额外配置。

阅读 此文档 了解更多。

适配支持

我们目前支持以下模型/平台:

模型/平台 接入方式 特性 注意事项
OpenAI 本地 Client,官方 API 接入 可自定义人格,支持插件/浏览模式等聊天模式 API 接入需要付费
Azure OpenAI 本地 Client,官方 API 接入 可自定义人格,支持插件/浏览模式等聊天模式 API 接入需要付费
Google Gemini 本地 Client,官方 API 接入 速度快,性能超越 GPT-3.5 需要有 Gemini 访问权限账号,可能收费
New Bing 本地 Client,逆向 API 接入 自带网络搜索,强时效性,可无需登录使用 需要代理,需要过验证码(无需 Cookie 也可用)
Claude API 本地 Client,官方 API 接入 超大上下文,大部分情况下能超过 GPT 3.5,需要 API KEY,收费 可能较贵,不支持 Function Call
智谱 本地 Client,官方 API 接入 ChatGLM,新人注册可获取免费 Token 额度 实测效果比讯飞星火略好
通义千问 本地 Client,官方 API 接入 阿里出品国产模型,有免费额度 实测效果约等于 讯飞星火
讯飞星火 本地 Client,官方 API 接入 国产模型,新人注册可获取免费 Token 额度 实测效果约等于 GPT 3.5
文心一言 本地 Client,官方 API 接入 百度经典模型 实测效果约等于通义千问
Ollama 本地 Client,自搭建 API 接入 知名开源模型合集,支持 CPU / GPU 混合部署,可本地搭建 需要自己搭建后端 API,要求一定的配置
GPT Free 本地 Client,官方 API 接入 本地转发使用其他网站的 GPT 模型,项目自动配置网站等配置,无需手动注册 可能随时失效,不稳定
ChatGLM 本地 Client,自搭建后端 API 接入 可本地搭建,四舍五入不要钱 需要自己搭建后端 API,要求一定的配置,模型参数不够大导致聊天效果不够好
RWKV 本地 Client,自搭建 API 接入 知名开源模型,可本地搭建 需要自己搭建后端 API,要求一定的配置

为模型提供网络搜索能力 我们支持:

预设

1.0.0-alpha.10 版本开始,我们使用更加可定制化的预设。新的人格预设使用 yaml 做为配置文件。

你可以点这里来查看我们默认附带的人格文件:catgirl.yml

我们默认的预设文件夹路径为 你当前运行插件的 koishi 目录的路径+/data/chathub/presets

所有的预设文件都是从上面的文件夹上加载的。因此你可以自由添加和编辑预设文件在这个文件夹下,然后使用命令来切换人格预设。

如需了解更多,可查看此文档

Fork & Develop

在任意 Koishi 模版项目上运行下列指令来克隆 ChatLuna:

# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna

可将上面 ChatLunaLab/chatluna-koishi 替换成你自己 Fork 后的项目地址。

然后编辑模版项目根目录下的 tsconfig.json 文件,在 compilerOptions.paths 中添加 ChatLuna 项目路径。

{
  "extends": "./tsconfig.base",
  "compilerOptions": {
    "baseUrl": ".",
    "paths": {
      "koishi-plugin-chatluna-*": ["external/chatluna/packages/*/src"]
    }
  }
}

由于项目本身比较复杂,初始使用必须构建一次。

# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi

完成!现在即可在根项目中使用 yarn devnpm run dev 启动模版项目并二次开发 ChatLuna。

虽然 Koishi 支持模块热替换(hmr),但本项目可能并未完全兼容。

如果你在使用 hmr 二次开发本项目时出现了 Bug,请在 Issue 中提出,并按上面步骤重新构建项目并重启 Koishi 以尝试修复。

Help

目前 ChatLuna 项目组产能极为稀缺,没有更多产能来完成下面的目标:

欢迎提交 Pull Request 或进行讨论,我们非常欢迎您的贡献!

贡献者名单

Alt

Star History Chart

使用须知

本项目由ChatLunaLab 开发。

ChatLuna(下称本项目) 是一个基于大型语言模型的对话机器人框架。我们致力于与开源社区合作,推动大模型技术的发展。我们强烈呼吁开发者和其他使用者遵守开源协议,确保不将本项目(以及社区推动的基于本项目的其他衍生产品)的框架和代码以及相关衍生物用于可能对国家和社会造成危害的任何目的,以及未经过安全评估和备案的服务。

本项目不直接提供任何生成式人工智能服务的支持,需要使用者自行从提供了生产式人工智能服务的组织或个人获取使用的算法 API。

如果您使用了本项目,请您遵循当地地区的法律法规,使用在当地地区内可用的生产式人工智能服务算法。

本项目不对算法生成的结果负责,所有结果和操作均由使用者自行负责。

本项目的相关信息存储均由用户自行配置来源,项目本身不提供直接的信息存储。

本项目不承担使用者导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。

感谢

本项目在编写时也参考了其他的开源项目,特别感谢以下项目:

koishi-plugin-openai

node-chatgpt-api

poe-api

Bard

chathub

另感谢 JetBrains 为本项目提供 WebStorm 等 IDE 的免费许可证。