chatgpt-web-dev / chatgpt-web

A third-party ChatGPT Web UI page built with Express and Vue3, through the official OpenAI completion API. / 用 Express 和 Vue3 搭建的第三方 ChatGPT 前端页面, 基于 OpenAI 官方 completion API.
https://chatgpt-web.dev
MIT License
1.6k stars 440 forks source link

回答时是否可以添加提示,比单纯的闪烁光标更加友好一些? #420

Closed dqzboy closed 6 months ago

dqzboy commented 6 months ago
image
dqzboy commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下 image

还有就是最新版,version显示目前还是测试吗? image

BobDu commented 6 months ago

还有就是最新版,version显示目前还是测试吗?

你是哪种方式部署的? 使用 docker 的latest image吗? 还是clone代码仓库本地启动的? 本地启动的时候。还没修改启动脚本支持。

BobDu commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

dqzboy commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

BobDu commented 6 months ago

回答时是否可以添加提示,比单纯的闪烁光标更加友好一些?

我尝试实现了一下。发现体验效果其实并不好。

https://github.com/chatgpt-web-dev/chatgpt-web/assets/20370175/c11fb08e-0695-44f3-9819-5ddc6c547cee

参考openai的官方 ChatGPT 页面交互。也是使用了一个光标闪烁来代表等待响应。

这个变更就不合并了。如果有新的想法也欢迎继续交流。

xiaosaaaa commented 6 months ago

还有就是最新版,version显示目前还是测试吗?

你是哪种方式部署的? 使用 docker 的latest image吗? 还是clone代码仓库本地启动的? 本地启动的时候。还没修改启动脚本支持。

这个powered by 确实不是很好看,建议重新设计一下

还有就是最新版,version显示目前还是测试吗?

你是哪种方式部署的? 使用 docker 的latest image吗? 还是clone代码仓库本地启动的? 本地启动的时候。还没修改启动脚本支持。

这个powered by的位置和设计不是很好看,建议重新设计一下。 捕4获

这个是rawchat的界面,可以参考一下他们的标是如何设计的 1

CiZaii commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

dqzboy commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式

image
CiZaii commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式 image

我已经根据这个进来了配置,但是回复显示404,这个在chatnextweb界面可以正常文答的,在这里就回答返回404了

image
dqzboy commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式 image

我已经根据这个进来了配置,但是回复显示404,这个在chatnextweb界面可以正常文答的,在这里就回答返回404了 image

这里的key和model与你配置里面的要对应起来才行 不然找不到bot

CiZaii commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式 image

我已经根据这个进来了配置,但是回复显示404,这个在chatnextweb界面可以正常文答的,在这里就回答返回404了 image

这里的key和model与你配置里面的要对应起来才行 不然找不到bot

如果使用的是coze里边那个gpt4 turbo 128k那个,这里模型应该怎么填写呢

CiZaii commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式 image

我已经根据这个进来了配置,但是回复显示404,这个在chatnextweb界面可以正常文答的,在这里就回答返回404了 image

这里的key和model与你配置里面的要对应起来才行 不然找不到bot

如果使用的是coze里边那个gpt4 turbo 128k那个,这里模型应该怎么填写呢

部署代理的时候并没有model 这个环境变量

image
dqzboy commented 6 months ago

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

还有个问题就是,返回的图片到前端之后显示的太大了,这个是否可以优化下

是用的官方的api吗? 用的啥图片时候用了啥 prompt 返回的这个图片? 我复现一下。

非官方API,但是是支持官方的图片接口格式的;使用的是coze

我在zeabur也部署了coze,想请问一下这个项目,您是怎么配置接口地址和秘钥的呢

选择API模式 image

我已经根据这个进来了配置,但是回复显示404,这个在chatnextweb界面可以正常文答的,在这里就回答返回404了 image

这里的key和model与你配置里面的要对应起来才行 不然找不到bot

如果使用的是coze里边那个gpt4 turbo 128k那个,这里模型应该怎么填写呢

部署代理的时候并没有model 这个环境变量 image

这里模型主要跟proxy里面对应 跟coze选择哪个模型没关系。如果你proxy使用的3.0之后的版本 必须加上model参数 看项目作者页面的配置介绍