Open chenhb-zte opened 1 week ago
一样的问题 直接curl本地模型流式为true,是正常的,有返回内容; 通过one-api渠道接入,curl one-api的时候流式为false有返回内容,而流式是true的时候返回是空
一样的问题 直接curl本地模型流式为true,是正常的,有返回内容; 通过one-api渠道接入,curl one-api的时候流式为false有返回内容,而流式是true的时候返回是空
使用的是Huggingface的Text Generation Inference 推理框架
一样的问题 直接curl本地模型流式为true,是正常的,有返回内容; 通过one-api渠道接入,curl one-api的时候流式为false有返回内容,而流式是true的时候返回是空
使用的是Huggingface的Text Generation Inference 推理框架
同样遇到了 是不是huggingface系列的都不支持啊
你本地的请求和响应方便给出来看一下吗
你本地的请求和响应方便给出来看一下吗
curl测试使用的是问题描述里的请求,没有响应信息输出。 换成直接请求openai接口,是有stream打印输出的
你使用curl 去请求本地的模型接口,看看有没有问题
你本地的请求和响应方便给出来看一下吗 curl --location '10.81.1.66:3001/v1/chat/completions' --header 'Content-Type: application/json' --header 'Accept: text/event-stream' --header 'Authorization: Bearer sk-dyjZYJ8xdzcFPp8y5597E57eA5354a808bE82dC4D1982515' --data '{ "model": "qwen2-72b-local", "stream": true, "messages": [ { "role": "user", "content": "1+98等于几" } ] }' Qwen2-72b部署在本地TGI上,上图是走oneAPI的接口,stream=true无法正常返回,stream=false正常 ps:不通过oneapi,直接访问模型,stream=true/false都正常
你请求本地TGI的请求和响应,还有one-api的配置可以发一下吗
你使用curl 去请求本地的模型接口,看看有没有问题
curl --location '10.81.1.66:3001/v1/chat/completions' --header 'Content-Type: application/json' --header 'Accept: text/event-stream' --header 'Authorization: Bearer sk-dyjZYJ8xdzcFPp8y5597E57eA5354a808bE82dC4D1982515' --data '{ "model": "qwen2-72b-local", "stream": true, "messages": [ { "role": "user", "content": "1+98等于几" } ] }' Qwen2-72b部署在本地TGI上,上图是走oneAPI的接口,stream=true无法正常返回,stream=false正常 ps:不通过oneapi,直接访问模型,stream=true/false都正常
你使用curl 去请求本地的模型接口,看看有没有问题
curl --location '10.81.1.66:3001/v1/chat/completions' --header 'Content-Type: application/json' --header 'Accept: text/event-stream' --header 'Authorization: Bearer sk-dyjZYJ8xdzcFPp8y5597E57eA5354a808bE82dC4D1982515' --data '{ "model": "qwen2-72b-local", "stream": true, "messages": [ { "role": "user", "content": "1+98等于几" } ] }' Qwen2-72b部署在本地TGI上,上图是走oneAPI的接口,stream=true无法正常返回,stream=false正常 ps:不通过oneapi,直接访问模型,stream=true/false都正常
所以这是curl请求本地的模型,不是请求one-api的。那你的响应也可以贴一下。还有one-api是怎么配置的。
你使用curl 去请求本地的模型接口,看看有没有问题
curl --location '10.81.1.66:3001/v1/chat/completions' --header 'Content-Type: application/json' --header 'Accept: text/event-stream' --header 'Authorization: Bearer sk-dyjZYJ8xdzcFPp8y5597E57eA5354a808bE82dC4D1982515' --data '{ "model": "qwen2-72b-local", "stream": true, "messages": [ { "role": "user", "content": "1+98等于几" } ] }' Qwen2-72b部署在本地TGI上,上图是走oneAPI的接口,stream=true无法正常返回,stream=false正常 ps:不通过oneapi,直接访问模型,stream=true/false都正常
所以这是curl请求本地的模型,不是请求one-api的。那你的响应也可以贴一下。还有one-api是怎么配置的。
上面10.81.1.66:3001的是one-api的接口,stream=true无返回。 下图:直接访问TGI部署的Qwen2 返回结果:
例行检查
问题描述 使用的是fastgpt + oneapi +本地模型(openai 接口), one api对接测试正常,在fastgpt访问提示“对话接口报错或返回为空”,查看oneapi日志显示completionTokens=0 , 通过curl接口测试openai接口正常,但是curl oneapi接口一样的问题 curl --location --request POST 'http://xx.xx.xx.xx:3001/v1/chat/completions' --header 'Authorization: Bearer sk-xxxxx' --header 'Content-Type: application/json' --data-raw '{ "model": "llama3-70b", "max_tokens": 2,"stream": true, "temperature": 1,"messages": [ { "role": "user", "content": "hi" } ] }'
复现步骤
预期结果
相关截图 如果没有的话,请删除此节。