lss233 / chatgpt-mirai-qq-bot

🚀 一键部署!真正的 AI 聊天机器人!支持ChatGPT、文心一言、讯飞星火、Bing、Bard、ChatGLM、POE,多账号,人设调教,虚拟女仆、图片渲染、语音发送 | 支持 QQ、Telegram、Discord、微信 等平台
GNU Affero General Public License v3.0
13.4k stars 1.57k forks source link

[BUG] 无法识别本地服务器运行的大模型提供的openai api接口 #1250

Open moqingx52 opened 1 year ago

moqingx52 commented 1 year ago

提交 issue 前,请先确认:

表现
描述 BUG 的表现情况

运行环境:

复现步骤
描述你是如何触发这个 BUG 的 1.在本地运行大语言模型,如rwkv runner或者chatglm3,均提供openai api格式的接口: 图片 2.在config.cfg中增加api接入,如下: 图片 3.运行bot,未检测到api

预期行为
理论上这类api应该可以被识别并使用,如我用chatbox调用api,效果如下: 图片 实际上对应的操作就是将"https://api.openai.com/v1"替换为服务器地址加端口,可以正常运行 截图
相关日志、聊天记录的截图: 图片 并不会检测到

其他内容
如果是我config填写问题,希望在使用文档中增加rwkv runner的说明,其已经提供了合规的接口,希望增加支持。

moqingx52 commented 1 year ago

上一个问题解决了,加个瞎写的api key即可。新的问题出现了,,,,如下,rwkv接口对上但是内容似乎错位了,GLM3没有问题 图片

kpupil commented 12 months ago

上一个问题解决了,加个瞎写的api key即可。新的问题出现了,,,,如下,rwkv接口对上但是内容似乎错位了,GLM3没有问题 图片

请问解决了吗