Closed HelloEveryonehh closed 6 months ago
补充一下,我这个是在高级编排的里面测试的
官方支持多少?
官方支持多少?
我测试发现,在正式的对话界面回答的内容要比在高级编排界面回答的内容要多,即使我都是设置的2000
@c121914yu 所以这是一个bug吗
@c121914yu 所以这是一个bug吗
不懂,没用过本地模型。本地模型,先自己测试通过再接入。 本地模型能不能用,除了取决于模型参数,很大程度还取决于接口是否适配,有些接口写的很垃圾,参数鲁棒性很差,那也没啥用。
@c121914yu 所以这是一个bug吗
不懂,没用过本地模型。本地模型,先自己测试通过再接入。 本地模型能不能用,除了取决于模型参数,很大程度还取决于接口是否适配,有些接口写的很垃圾,参数鲁棒性很差,那也没啥用。
这个是阿里的api服务,应该不算本地模型,国内还挺常见的,问题是在高级编排里面回答的内容很少,但是在正式的对话可以回答很多内容,看起来是个bug
直接测试就知道了,官方提示就最大2000
例行检查
你的版本
问题描述 本地部署fastgpt,通过one-api对接qwen-max和qwen-turbo,然后发现当回复上限设置超过2000时,会报错,2000以内则不会报错,报错如下 我已经自行确认qwen-max和qwen-turbo的可接受上下文比我设置的要大,在faq中的对应原因与我的情况不符合。请作者看一下,非常感谢! 预期结果 回复超过2000不报错 相关截图 报错截图: docker logs fastgpt截图: config.json: 下面是one-api里面的截图,当发送报错的时候会出现如下情况: