Closed hanxiantao closed 3 weeks ago
我看 MiniMax 有三个 Chat Completion 接口。现在的实现里用的是 V2。这样做有什么原因吗?
只有ChatCompletion v2是支持所有模型的,ChatCompletion Pro仅用于abab6.5、abab6.5s、abab5.5s模型(推荐优先使用),ChatCompletion仅用于abab5.5、abab5.5s模型(推荐优先使用),我考虑再针对minimax加一个特殊的字段共用户选择调用哪个接口,更合适一点
我看 MiniMax 有三个 Chat Completion 接口。现在的实现里用的是 V2。这样做有什么原因吗?
只有ChatCompletion v2是支持所有模型的,ChatCompletion Pro仅用于abab6.5、abab6.5s、abab5.5s模型(推荐优先使用),ChatCompletion仅用于abab5.5、abab5.5s模型(推荐优先使用),我考虑再针对minimax加一个特殊的字段共用户选择调用哪个接口,更合适一点
或者根据模型自动选择接口呢?
我看 MiniMax 有三个 Chat Completion 接口。现在的实现里用的是 V2。这样做有什么原因吗?
只有ChatCompletion v2是支持所有模型的,ChatCompletion Pro仅用于abab6.5、abab6.5s、abab5.5s模型(推荐优先使用),ChatCompletion仅用于abab5.5、abab5.5s模型(推荐优先使用),我考虑再针对minimax加一个特殊的字段共用户选择调用哪个接口,更合适一点
或者根据模型自动选择接口呢?
也可以,如果是abab6.5、abab6.5s、abab5.5s模型会优先使用ChatCompletion Pro,abab5.5优先使用ChatCompletion,其他模型使用ChatCompletion v2,我这边会根据这个逻辑再调整下
如果是abab6.5、abab6.5s、abab5.5s模型会优先使用ChatCompletion Pro,abab5.5优先使用ChatCompletion,其他模型使用ChatCompletion v2,我这边会根据这个逻辑再调整下
ChatCompletion Pro也支持abab5.5,目前实现逻辑:如果是abab6.5、abab6.5s、abab5.5s、abab5.5模型会优先使用ChatCompletion Pro,其他模型使用ChatCompletion v2(abab6.5t、abab6.5g)
Ⅰ. Describe what this PR did
1)支持minimax AI模型
2)修复文心一言使用OpenAI协议流式响应格式(data:后少了个空格)
Ⅱ. Does this pull request fix one issue?
fixes https://github.com/alibaba/higress/issues/953
Ⅲ. Why don't you add test cases (unit test/integration test)?
Ⅳ. Describe how to verify it
docker-compose.yaml
使用OpenAI协议
envoy.yaml
非流式请求
示例1:调用ChatCompletion V2接口
响应:
示例2:调用ChatCompletion Pro接口
响应:
流式请求
示例1:调用ChatCompletion V2接口
响应:
示例2:调用ChatCompletion Pro接口
响应:
使用MiniMax协议
envoy.yaml
非流式请求
示例1:调用ChatCompletion V2接口
响应:
示例2:调用ChatCompletion Pro接口
响应:
流式请求
示例1:调用ChatCompletion V2接口
响应:
示例2:调用ChatCompletion Pro接口
响应:
修复文心一言使用OpenAI协议流式响应格式
envoy.yaml
流式请求
响应:
Ⅴ. Special notes for reviews