Closed jqlts1 closed 3 months ago
比如在opencat 就会这样,我输入的模型和最后输出的会暴漏我的真实模型,...
这个和OpenAI的映射是一样的。
将通用模型映射到版本模型,你请求OpenAI gpt-3.5-turbo
会给你返回gpt-3.5-turbo-xxx
.
这个暂时不会改
这个和OpenAI的映射是一样的。 将通用模型映射到版本模型,你请求OpenAI
gpt-3.5-turbo
会给你返回gpt-3.5-turbo-xxx
. 这个暂时不会改
就是返回的时候,没办法做一个判断,然后返回我映射的吗? 这个功能我感觉挺实用的,尤其在套壳给别人提供 api 的时候 而且很多软件似乎如果这个不一致也会报错
.... 不提倡这种欺骗用户的行为。 目前我也没遇到因为返回模型名称不一致就报错的情况。 一般也不会去限制返回模型名称和请求模型不一致就报错的。 因为openai返回的模型名称也是不一致的🙃
在使用 cursor 这个 ai 编辑器的时候,添加自定义模型会报错,目前我推测可能是模型映射的问题 比如图中:
比如我这个图中: 我把 gpt-3.5-turbo -> yi-large-rag,但是我请求 gpt-3.5-turbo 的时候,接口返回会返回 yi-large-rag...
这个会带来一些不便,比如有的时候,需要隐藏接口实际使用的模型 (比如我自己包装一个接口,或是起一个模型的名字 ) 但是别人在调用我这个接口,我就暴露了我的真实模型了
希望可以加一个开关,某个渠道返回的信息,就返回映射模型的信息!