songquanpeng / one-api

OpenAI 接口管理 & 分发系统,支持 Azure、Anthropic Claude、Google PaLM 2 & Gemini、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360 智脑以及腾讯混元,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用. OpenAI key management & redistribution system, using a single API for all LLMs, and features an English UI.
https://openai.justsong.cn/
MIT License
18.77k stars 4.22k forks source link

设置令牌之后,在Dify和FastGPT 配置 OPENAI_API_KEY="sk-xxxxxx" API_BASE="https://3000:3000/v1" ,一直提示链接超时,有没有大神指指路? #947

Open WSDzju opened 9 months ago

WSDzju commented 9 months ago

例行检查

问题描述

复现步骤

预期结果

相关截图 如果没有的话,请删除此节。

QAbot-zh commented 9 months ago

"https://3000:3000/v1" 这是啥?"https://ip:3000/v1"就够了

WSDzju commented 9 months ago

"https://3000:3000/v1" 这是啥?"https://ip:3000/v1"就够了

采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗

shentong0722 commented 9 months ago

"https://3000:3000/v1" 这是啥?"https://ip:3000/v1"就够了

采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗

sealos部署直接域名就是映射端口了的吧?不需要在域名后面加3000

kitaev-chen commented 9 months ago

去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。

WSDzju commented 9 months ago

"https://3000:3000/v1" 这是啥?"https://ip:3000/v1"就够了

采用了本地docker-compose部署和Sealos部署,修改为Sealos地址: https://tziltglz.cloud.sealos.io:3000/v1 本地地址:http://192.168.3.2:3000/v1 也都是提示超时,我这是哪些地方没有注意吗

sealos部署直接域名就是映射端口了的吧?不需要在域名后面加3000

好的,多谢!

WSDzju commented 9 months ago

去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。

我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,

WSDzju commented 9 months ago

去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。 这是我渠道设置,模型重定向 没有去设置,本地环境测试的时候,设置成 {“chatglm-turbo”:“gpt-3.5-turbo”} 之后,本地也用不了了 image 这是本地调用成功的日志:

屏幕截图 2024-01-22 084959
kitaev-chen commented 9 months ago

去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。

我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,

你本地是不是都用的docker?docker网络不互通,同时也不能用localhost:3000去连的。具体看这里: https://github.com/labring/FastGPT/issues/722#issuecomment-1898032075

WSDzju commented 9 months ago

去掉 v1 或者 :3000/v1 试试? 我 sealos 部署没什么问题,本地部署凡是带 :3000 的给 NextChat 第三方用都容易有这样那样的问题,有时候是百度阿里的模型有响应,讯飞星火和 Google geminin 出问题,比如什么 one_api_error, upstream_error 之类的。

我这里用了本地部署的地址,我在本地测试的时候,没有问题。但连接FastGPT始终是不行,

你本地是不是都用的docker?docker网络不互通,同时也不能用localhost:3000去连的。具体看这里: labring/FastGPT#722 (comment)

OneAPI是用docker,FastGPT是在云端。除了你提供链接的解决方案,如果OneAPI不用docker应该就可以了?稍后我试试