Closed xinzhu666 closed 7 months ago
Bot detected the issue body's language is not English, translate it automatically.
Title: [Bug] What if you use the OpenAI channel to call the Claude model?
https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web/pull/4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题
Bot detected the issue body's language is not English, translate it automatically.
https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web/pull/4480 The latest logic only has the built-in claude model that uses the anthropic interface
, which should solve your problem
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题
没懂只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置?
如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)
Bot detected the issue body's language is not English, translate it automatically.
4480 In the latest logic, only the built-in claude model will use the anthropic interface
, which should solve your problem
I don’t understand what Only the built-in claude model will use the anthropic interface
means. How to set up non-built-in ones?
What settings do I need if I want the claude model to go through the OpenAI channel? Because it uses the API of a third-party agent, in the previous version, it defaulted to the OpenAI channel. After adding anthropopic to the latest version, I set CUSTOM_MODELS in the environment variable to -all,+gpt-3.5-turbo-0125, +claude-3-opus,+claude-3-opus-20240229
When using it, it still uses the anthropopic interface, not the OpenAI interface.
Or set CUSTOM_MODELS to -all,+gpt-3.5-turbo-0125
and add claude-3-opus,claude-3-opus-20240229
to the custom model (this way there is only gpt-3.5-turbo-0125 Available, claude model will not be displayed)
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题没懂
只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置?如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为
-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。
亦或是设置CUSTOM_MODELS为
-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)
正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。
我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307
,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。
我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku
, claude-3-sonnet
和claude-3-opus
,
然后在你的代理网站设置模型重定向,把claude-3-haiku
重定向为claude-3-haiku-20240307
。
这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题没懂
只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。
我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如
claude-3-haiku-20240307
,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。我的解决方法是,加入自定义claude模型名称,我的是
claude-3-haiku
,claude-3-sonnet
和claude-3-opus
,然后在你的代理网站设置模型重定向,把
claude-3-haiku
重定向为claude-3-haiku-20240307
。这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。
内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题没懂
只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如
claude-3-haiku-20240307
,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku
,claude-3-sonnet
和claude-3-opus
, 然后在你的代理网站设置模型重定向,把claude-3-haiku
重定向为claude-3-haiku-20240307
。 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理
如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题没懂
只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如
claude-3-haiku-20240307
,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku
,claude-3-sonnet
和claude-3-opus
, 然后在你的代理网站设置模型重定向,把claude-3-haiku
重定向为claude-3-haiku-20240307
。 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理
如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好
你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型
4480 最新逻辑只有内置的claude模型会走 anthropic接口
,应该可以解决你的问题没懂
只有内置的claude模型会走 anthropic接口
是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125
,在自定义模型增加claude-3-opus,claude-3-opus-20240229
(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如
claude-3-haiku-20240307
,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku
,claude-3-sonnet
和claude-3-opus
, 然后在你的代理网站设置模型重定向,把claude-3-haiku
重定向为claude-3-haiku-20240307
。 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理
如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好
你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型
docker部署貌似没有这玩意吧,应该是需要自己修改然后自己打包部署?
最新的 v2.13.0 貌似解决了这个问题,自定义模型设置 +claude-3-opus-20240229@OpenAI 可以指定走 OpenAI 的接口
Bot detected the issue body's language is not English, translate it automatically.
The latest v2.13.0 seems to solve this problem. Custom model settings +claude-3-opus-20240229@OpenAI can specify the OpenAI interface.
Bug Description
在未更新前还是可以使用claude-3-opus-20240229的,更新后就无法使用了,在环境变量处自定义模型,还是会匹配到预设的渠道(Anthropic)
Steps to Reproduce
-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229
Expected Behavior
通过OpenAI渠道调用claude系列模型,设置中的模型提供商项如果可以生效就是需要的效果。
Screenshots
No response
Deployment Method
Desktop OS
Window10
Desktop Browser
Chromium
Desktop Browser Version
118.0.5993.159
Smartphone Device
No response
Smartphone OS
No response
Smartphone Browser
No response
Smartphone Browser Version
No response
Additional Logs
No response