Open WSDzju opened 9 months ago
采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗
采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗
sealos部署直接域名就是映射端口了的吧?不需要在域名后面加3000
去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。
采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗
sealos部署直接域名就是映射端口了的吧?不需要在域名后面加3000
好的,多谢!
去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。
我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,
去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。 这是我渠道设置,模型重定向 没有去设置,本地环境测试的时候,设置成 {“chatglm-turbo”:“gpt-3.5-turbo”} 之后,本地也用不了了 这是本地调用成功的日志:
去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。
我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,
你本地是不是都用的docker?docker网络不互通,同时也不能用localhost:3000去连的。具体看这里: https://github.com/labring/FastGPT/issues/722#issuecomment-1898032075
去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。
我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,
你本地是不是都用的docker?docker网络不互通,同时也不能用localhost:3000去连的。具体看这里: labring/FastGPT#722 (comment)
OneAPI是用docker,FastGPT是在云端。除了你提供链接的解决方案,如果OneAPI不用docker应该就可以了?稍后我试试
例行检查
问题描述
复现步骤
预期结果
相关截图 如果没有的话,请删除此节。