ChatGPTNextWeb / ChatGPT-Next-Web

A cross-platform ChatGPT/Gemini UI (Web / PWA / Linux / Win / MacOS). 一键拥有你自己的跨平台 ChatGPT/Gemini 应用。
https://app.nextchat.dev/
MIT License
76.54k stars 59.14k forks source link

[Bug] 如何使用OpenAI渠道调用Claude模型呢? #4492

Closed xinzhu666 closed 7 months ago

xinzhu666 commented 7 months ago

Bug Description

在未更新前还是可以使用claude-3-opus-20240229的,更新后就无法使用了,在环境变量处自定义模型,还是会匹配到预设的渠道(Anthropic)

image

Steps to Reproduce

  1. 在custom_models 中设置-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

Expected Behavior

通过OpenAI渠道调用claude系列模型,设置中的模型提供商项如果可以生效就是需要的效果。 image

Screenshots

No response

Deployment Method

Desktop OS

Window10

Desktop Browser

Chromium

Desktop Browser Version

118.0.5993.159

Smartphone Device

No response

Smartphone OS

No response

Smartphone Browser

No response

Smartphone Browser Version

No response

Additional Logs

No response

Issues-translate-bot commented 7 months ago

Bot detected the issue body's language is not English, translate it automatically.


Title: [Bug] What if you use the OpenAI channel to call the Claude model?

Dean-YZG commented 7 months ago

https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web/pull/4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

Issues-translate-bot commented 7 months ago

Bot detected the issue body's language is not English, translate it automatically.


https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web/pull/4480 The latest logic only has the built-in claude model that uses the anthropic interface, which should solve your problem

xinzhu666 commented 7 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?

如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

image

使用的时候,还是走anthropic接口,不会走OpenAI接口。

亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

Issues-translate-bot commented 7 months ago

Bot detected the issue body's language is not English, translate it automatically.


4480 In the latest logic, only the built-in claude model will use the anthropic interface, which should solve your problem

I don’t understand what Only the built-in claude model will use the anthropic interface means. How to set up non-built-in ones?

What settings do I need if I want the claude model to go through the OpenAI channel? Because it uses the API of a third-party agent, in the previous version, it defaulted to the OpenAI channel. After adding anthropopic to the latest version, I set CUSTOM_MODELS in the environment variable to -all,+gpt-3.5-turbo-0125, +claude-3-opus,+claude-3-opus-20240229

image

When using it, it still uses the anthropopic interface, not the OpenAI interface.

Or set CUSTOM_MODELS to -all,+gpt-3.5-turbo-0125 and add claude-3-opus,claude-3-opus-20240229 to the custom model (this way there is only gpt-3.5-turbo-0125 Available, claude model will not be displayed)

oahcgnaw commented 6 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置?

如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229

image

使用的时候,还是走anthropic接口,不会走OpenAI接口。

亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。

我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。

我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opus

image

然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307

image

这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

Innocent-children commented 6 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229 image 使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。

我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。

我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage

然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image

这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

wxiaoxiaow commented 4 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229 image 使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage 然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

oahcgnaw commented 4 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229 image 使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage 然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型

wxiaoxiaow commented 4 months ago

4480 最新逻辑只有内置的claude模型会走 anthropic接口,应该可以解决你的问题

没懂只有内置的claude模型会走 anthropic接口是什么意思,非内置的需要如何设置? 如果我想claude模型走OpenAI的渠道需要怎么设置?因为用的是第三方代理的API,在上一个版本,是默认走OpenAI的渠道,最新版加了anthropic之后,我在环境变量中设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,+claude-3-opus,+claude-3-opus-20240229 image 使用的时候,还是走anthropic接口,不会走OpenAI接口。 亦或是设置CUSTOM_MODELS为-all,+gpt-3.5-turbo-0125,在自定义模型增加claude-3-opus,claude-3-opus-20240229(这样只有gpt-3.5-turbo-0125可用,不会显示claude模型)

正好也碰到这个问题,我是使用one-api代理AWS bedrock的claude模型,刚刚解决这个问题。 我想@Dean-YZG 说的应该是,如果你在NextChat里面加入的claude模型名称和调用claude官方api时的名称一致,如claude-3-haiku-20240307,那么在NextChat在发送请求的时候就会走Anthropic的接口(请求地址为/v1/message)。 我的解决方法是,加入自定义claude模型名称,我的是claude-3-haiku, claude-3-sonnetclaude-3-opusimage 然后在你的代理网站设置模型重定向,把claude-3-haiku重定向为claude-3-haiku-20240307image 这样NextChat在发送请求的时候就不会识别你的claude模型走Anthropic的接口,而是走你的代理。

内置的模型指的是代码中预先给出的一些Claude模型,在constant.ts中,注释掉里面的模型,然后在环境变量中加入自己想要的模型,就可以让Claude模型走openai代理 image

如果使用的是别人的代理还是docker部署的应该怎么做呢,是不是还是提供一个环境变量来配置这个case比较好

你的回复的上一条,那位兄弟的方法应该可以解决你的问题,注释掉那些模型

docker部署貌似没有这玩意吧,应该是需要自己修改然后自己打包部署?

Youngv commented 3 months ago

最新的 v2.13.0 貌似解决了这个问题,自定义模型设置 +claude-3-opus-20240229@OpenAI 可以指定走 OpenAI 的接口

Issues-translate-bot commented 3 months ago

Bot detected the issue body's language is not English, translate it automatically.


The latest v2.13.0 seems to solve this problem. Custom model settings +claude-3-opus-20240229@OpenAI can specify the OpenAI interface.