Closed avilliai closed 1 month ago
在填写配置项时,windows整合包用户打开launcher,在设置页面就能看到,不要自己去直接修改文件,在你不清楚格式要求的情况下,贸然修改本地文件容易出现格式错误,最终将导致bot无法运行。
你自己用 设定#模型名 指令的优先级高于你在配置文件填写的模型,所以不要再问“为什么我修改了配置文件模型还是没反应”的问题了。
一旦你用了 设定#模型名 的指令,配置文件设置的模型将不再对你生效。 为了避免还是有人看不懂,我再说明白一点:设定#模型名 设置的模型只对设定者个人生效;而配置文件中设置的模型,是对所有人(除了用过 设定#模型名 的人)生效的
如果你还是看不懂上面说的是什么意思,那就记住不要用 设定#模型名 这样的指令。
最下方有比较详细的配置方式
参照 创建应用,并保存apikey和apiSecret,填入api.yaml中wenxinAI部分 (如果你没有实名认证,需要先实名一下) 开通对应模型,这里建议开通ERNIE-Speed-128K,不用担心,这是免费的。 然后把Manyana/settings.yaml中chatGLM.model修改为 文心一言 并保存,重启bot即可。 此时你的api.yaml相关部分应该是这样:
wenxinAI: apiKey: 你的key secretKey: 你的secretkey wenxin-model: ernie-speed-128k #一般不用动
settings.yaml相关部分应该是这样:
chatGLM: #对话模型通用设置 aiReplyCore: False #ai回复核心,开不开都行 model: 文心一言
参照 找到spark lite,并保存apikey和apiSecret,填入api.yaml中sparkAI部分 (如果你没有实名认证,需要先实名一下) 然后把Manyana/settings.yaml中chatGLM.model修改为 讯飞星火 并保存,重启bot即可。 此时你的api.yaml相关部分应该是这样:
sparkAI: #讯飞星火 apiKey: 你的apikey #在https://console.xfyun.cn/services/cbm申请,并复制对应key和secret,注意,免费的是lite版 apiSecret: 你的apisecret spark-model: general #讯飞星火的模型设置,general是免费无限制的,一般不建议修改
chatGLM: #对话模型通用设置 aiReplyCore: False #ai回复核心,开不开都行 model: 讯飞星火
搭建完成后,本地环境无代理可调用Gemini。 本文档用于无域名搭建Gemini反代。
chatGLM: #对话模型通用设置 aiReplyCore: False #ai回复核心,开不开都行 model: Gemini #这样ai回复才会使用Gemini进行回复
获取Gemini apikey (获取过程需要开启代理)
gemini: - AIxxxxxxx #填写你申请到的apikey
如果你申请了多个apikey
gemini: - AIxxxxxxx1 #填写你申请到的apikey - AIxxxxxxx2 #填写你申请到的apikey
在获取到Gemini api后,由于gemini不支持cn用户使用,我们需要配置代理,依然是api.yaml,配置proxy或GeminiRevProxy,这两个代理任一配置完成即可使用
proxy: 你自己的http代理地址 #如果你不知道这是什么,就别填,去配置GeminiRevProxy GeminiRevProxy: https://fbsvilli.netlify.app #这个反代地址你可以直接拿去用
如果你使用GeminiRevProxy: https://fbsvilli.netlify.app并且完成了上方其他配置,那么下面的不用看了,重启bot,你已经可以使用Gemini了。
GeminiRevProxy: https://fbsvilli.netlify.app
你可以直接使用 https://fbsvilli.netlify.app
GeminiRevProxy: "https://fbsvilli.netlify.app" #基于cloudflare反向代理,整好了能裸连Gemini,自己折腾去,完事填你自己的域名
好的,恭喜你,在填写完gemini的apikey,以及GeminiRevProxy之后,你已经可以在无代理环境下使用Gemini了。 后面的不用看了,你只需要把settings.yaml的模型设置为Gemini即可。 至于 设定#模型名 这是只对发送指令者个人生效的指令,设定#模型 的优先级高于settings.yaml中填写的模型。
至于 设定#模型名 这是只对发送指令者个人生效的指令,设定#模型 的优先级高于settings.yaml中填写的模型。
进入页面https://github.com/antergone/palm-netlify-proxy
点击Deploy to Netlify
你应该会被跳转至,点击connect to github
完成授权后你会跳转到
Repository name随意填写,然后点击 save and deploy
稍作等待
即为部署成功。
点击这个链接 出现上图即为成功,此时的链接就是反代链接,把此链接填入反代链接即可,注意格式 如下 https://xxxx.netlify.app 前要用https后不能有斜杠。
大多数模型都是支持使用openai的sdk的,我们可以轻松对接像kimi这些支持openaiSDK的模型。 我们以kimi为例 通过[阅读kimi官方文档](基本信息 - Moonshot AI 开放平台),我们得到以下关键信息 看不懂也没关系,这说明它支持openai的sdk,我们只需要填写api.yaml即可调用它 接下来,在kimi官网申请apikey。 此时你的api.yaml相关部分应该是这样:
openaiSettings: openai-keys: - 你申请的apikey #从kimi官网申请的api openai-model: moonshot-v1-8k #此时,我们使用kimi的模型 openai-transit: 'https://api.moonshot.cn/v1' #中转站,即连接到kimi api,而非openai
chatGLM: #对话模型通用设置 aiReplyCore: False #ai回复核心,开不开都行 model: gpt3.5 #因为本质上用的还是openai sdk,所以模型这里仍然需要填gpt3.5,但因为上面中转站的设置,已经是kimi了。如果需要更改人设,也是更改下方的gpt3.5,不要自己创建新的。
需要反复强调的部分
在填写配置项时,windows整合包用户打开launcher,在设置页面就能看到,不要自己去直接修改文件,在你不清楚格式要求的情况下,贸然修改本地文件容易出现格式错误,最终将导致bot无法运行。
你自己用 设定#模型名 指令的优先级高于你在配置文件填写的模型,所以不要再问“为什么我修改了配置文件模型还是没反应”的问题了。
一旦你用了 设定#模型名 的指令,配置文件设置的模型将不再对你生效。
为了避免还是有人看不懂,我再说明白一点:
设定#模型名 设置的模型只对设定者个人生效;
而配置文件中设置的模型,是对所有人(除了用过 设定#模型名 的人)生效的
如果你还是看不懂上面说的是什么意思,那就记住不要用 设定#模型名 这样的指令。
下面是配置文件设置模型的相关内容
最下方有比较详细的配置方式
proxy或GeminiRevProxy
proxy(建议)
需要discord小号,每个账号每天都有次数限制(gpt4 100次/天),可配置多个小号
文心一言配置方式
参照 创建应用,并保存apikey和apiSecret,填入api.yaml中wenxinAI部分
(如果你没有实名认证,需要先实名一下)
开通对应模型,这里建议开通ERNIE-Speed-128K,不用担心,这是免费的。
然后把Manyana/settings.yaml中chatGLM.model修改为 文心一言 并保存,重启bot即可。
此时你的api.yaml相关部分应该是这样:
settings.yaml相关部分应该是这样:
讯飞星火配置方式
参照 找到spark lite,并保存apikey和apiSecret,填入api.yaml中sparkAI部分
(如果你没有实名认证,需要先实名一下)
然后把Manyana/settings.yaml中chatGLM.model修改为 讯飞星火 并保存,重启bot即可。
此时你的api.yaml相关部分应该是这样:
settings.yaml相关部分应该是这样:
使用Gemini
搭建完成后,本地环境无代理可调用Gemini。 本文档用于无域名搭建Gemini反代。
1、修改默认模型
settings.yaml相关部分应该是这样:
2、获取Gemini apikey
获取Gemini apikey (获取过程需要开启代理)
如果你申请了多个apikey
在获取到Gemini api后,由于gemini不支持cn用户使用,我们需要配置代理,依然是api.yaml,配置proxy或GeminiRevProxy,这两个代理任一配置完成即可使用
如果你使用
GeminiRevProxy: https://fbsvilli.netlify.app
并且完成了上方其他配置,那么下面的不用看了,重启bot,你已经可以使用Gemini了。3、搭建反向代理服务器(非必做,你可以用现成的)
别折腾了用这个吧
你可以直接使用 https://fbsvilli.netlify.app
好的,恭喜你,在填写完gemini的apikey,以及GeminiRevProxy之后,你已经可以在无代理环境下使用Gemini了。 后面的不用看了,你只需要把settings.yaml的模型设置为Gemini即可。
至于 设定#模型名 这是只对发送指令者个人生效的指令,设定#模型 的优先级高于settings.yaml中填写的模型。
如果还是想要自己折腾个反代服务器
进入页面https://github.com/antergone/palm-netlify-proxy
点击Deploy to Netlify
你应该会被跳转至,点击connect to github
完成授权后你会跳转到
Repository name随意填写,然后点击 save and deploy
稍作等待
即为部署成功。
点击这个链接 出现上图即为成功,此时的链接就是反代链接,把此链接填入反代链接即可,注意格式 如下 https://xxxx.netlify.app 前要用https后不能有斜杠。
对接gpt中转(自定义模型)
大多数模型都是支持使用openai的sdk的,我们可以轻松对接像kimi这些支持openaiSDK的模型。 我们以kimi为例
通过[阅读kimi官方文档](基本信息 - Moonshot AI 开放平台),我们得到以下关键信息 看不懂也没关系,这说明它支持openai的sdk,我们只需要填写api.yaml即可调用它
接下来,在kimi官网申请apikey。 此时你的api.yaml相关部分应该是这样:
settings.yaml相关部分应该是这样: