fruitbars / simple-one-api

OpenAI 接口接入适配,支持千帆大模型平台、讯飞星火大模型、腾讯混元以及MiniMax、Deep-Seek,等兼容OpenAI接口,仅单可执行文件,配置超级简单,一键部署,开箱即用. Seamlessly integrate with OpenAI and compatible APIs using a single executable for quick setup and deployment.
MIT License
1.38k stars 121 forks source link

智谱清言报错 #30

Closed ywxhqwq closed 4 months ago

ywxhqwq commented 4 months ago

使用glm-4-0520,glm-4-flash、glm-4-air会报错 "error": "ChatCompletionStream error: error, status code: 400, message: API 调用参数有误,请检查文档。" e6998073-4124-482e-bf6a-bc5ff6070919

使用glm-4-alltools、glm-4v正常 批注 2024-06-27 211927

另外glm-4v输入图片会报错 "error": "ChatCompletionStream error: error, status code: 400, message: 图片输入格式/解析错误" 批注 2024-06-27 212105

charglm-3这个模型则会提示 empty response from server 批注 2024-06-27 212638

我的相关配置文件如图 20240627213356 我所使用的simple-one-api为Releases的最新版,客户端使用的是ChatGPT-Next-Web

fruitbars commented 4 months ago

ChatGPT-Next-Web 默认的top好像是1,glm系列的参数是:

top_p取值说明

用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 tokens 的结果 例如:0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取 tokens 建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数

但是设置为1 ,glm-4v能正常返回,而glm-4等其他系列不可以。

目前可以通过设置ChatGPT-Next-Web到小于1试试

ywxhqwq commented 4 months ago

ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是:

top_p取值说明

用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 token 的结果 例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并 根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数

但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。

目前可以通过设置ChatGPT-Next-Web到小于1试试

试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server

fruitbars commented 4 months ago

因为智谱的图片和openai的图片格式有差异,这周更新版本v0.9,抹平差异

fruitbars commented 4 months ago

ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是: top_p取值说明

用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 token 的结果 例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并 根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数

但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。 目前可以通过设置ChatGPT-Next-Web到小于1试试

试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server

新版本v0.9.0发布了,可以试试