Closed TingsongYu closed 5 months ago
应该是你这边 OpenAI API 模型接口使用的是旧的格式,两种格式不一样
应该是你这边 OpenAI API 模型接口使用的是旧的格式,两种格式不一样
请问知道如何解决吗?
使用类似于这种方式:https://ide.unitmesh.cc/custom/llm-server#custom-llm-server-example 配置
{ "customFields": {"model": "yi-34b-chat", "stream": true}, "messageKeys": {"role": "role", "content": "content"} }
使用类似于这种方式:https://ide.unitmesh.cc/custom/llm-server#custom-llm-server-example 配置
{ "customFields": {"model": "yi-34b-chat", "stream": true}, "messageKeys": {"role": "role", "content": "content"} }
已采用 custom llm server 方式配置,目前报错为: java.io.l0Exception: AutoDevHttpException(statusCode=400,message=okhtp3.internalhttp.RealResponseBod Prompt (Json):
qingwen请问是request body有问题吗? request body如下:
{ "customFields": {"model": "/Qwen_prj/llm_model/CodeQwen1.5-7B-Chat-AWQ", "stream": true}, "messageKeys": {"role": "system", "content": "You are a helpful assistant."} }
哦,不对,你按格式来:
{ "customFields": {"model": "yi-34b-chat", "stream": true}, "messageKeys": {"role": "role", "content": "content"} }
这里的 role 和 content 是用来转换的,不需要改。
是的,用官方文档建议的配置就可以了。 之前报错,应该是vllm后端服务的问题。感谢!
llm服务用vllm启动,server是:IP:9889, 现在配置的时候,点击Test LLM connection,报错为:Cannot read field "message" because "error,error" is null
请问是哪一步配置不正确吗?
服务的接口文档如下: API:http://10.20.3.12:9889/v1/chat/completions 请求json: