Closed liangpn closed 4 days ago
Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。
Xinference 如果 curl 没问题,感觉是 FastGPT 那边的问题。 是的,curl 是没问题的,fastgpt那边我也提了issue.
dify上复现了类似的报错。 dify调用部署在0.10.1和0.10.3版本xinference上的bce reranker模型都会报类似的错误,但0.10.2.post1版本可以正常使用。
但是只有0.10.2post1用的是FlagEmbedding推理的,0.10.3又改回了sentence transformers推理因为很多用户说FlagEmbedding出错。
v0.11.0上问题依然存在。我检查了一下具体的http request,当documents为较长的代码片段(1500~1700字符)时,使用bce模型会报错,使用bge模型可以正常rerank xinference上运行的模型如图 使用bce模型会报错 bge模型可以正常使用 具体post request如下 bce.request.json xinference错误日志如下 xinference.error.log
This issue is stale because it has been open for 7 days with no activity.
This issue was closed because it has been inactive for 5 days since being marked as stale.
fastgpt 调用 xinference rerank接口报错 fastgpt的配置
使用bce的reank会有下面的错误 使用bge的reank则是正常
但是直接curl 调用xinference 的rerank 接口是返回正常