Closed ywxhqwq closed 4 months ago
ChatGPT-Next-Web 默认的top好像是1,glm系列的参数是:
top_p取值说明
用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 tokens 的结果 例如:0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取 tokens 建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数
但是设置为1 ,glm-4v能正常返回,而glm-4等其他系列不可以。
目前可以通过设置ChatGPT-Next-Web到小于1试试
ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是:
top_p取值说明
用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 token 的结果 例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并 根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数
但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。
目前可以通过设置ChatGPT-Next-Web到小于1试试
试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server
因为智谱的图片和openai的图片格式有差异,这周更新版本v0.9,抹平差异
ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是: top_p取值说明
用温度取样的另一种方法,称为核取样 取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7 模型考虑具有 top_p 概率质量 token 的结果 例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并 根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数
但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。 目前可以通过设置ChatGPT-Next-Web到小于1试试
试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server
新版本v0.9.0发布了,可以试试
使用glm-4-0520,glm-4-flash、glm-4-air会报错
"error": "ChatCompletionStream error: error, status code: 400, message: API 调用参数有误,请检查文档。"
使用glm-4-alltools、glm-4v正常
另外glm-4v输入图片会报错
"error": "ChatCompletionStream error: error, status code: 400, message: 图片输入格式/解析错误"
charglm-3这个模型则会提示 empty response from server
我的相关配置文件如图 我所使用的simple-one-api为Releases的最新版,客户端使用的是ChatGPT-Next-Web