Open wwjCMP opened 7 months ago
按照这里配置一下模型
使用mxbai-embed-large还是会出现一样的错误,但下面的数字出来了
目前测试下来,设置应该是没有问题的。就是这个超时太容易报错了。 Request timed out after 12000 ms
只有一些简单的问题才有可能正常回答,比如:“概括主题”
使用完全本机推理也一样,log显示正在推理,gpt插件就已经提示超时,导致没法接收推理完的结果
我也有一样的问题,请问你解决了吗?
我也有一样的问题,请问你解决了吗?
没有
这个问题目前还有没有解决,对于本地模型不应设置超时限制。模型还在运行推理,插件这边就超时报错了。希望可以提供一个设置开关,手动控制是否开启超时报错
出错了,下面是一些报错信息: Request timed out 如果是网络问题,建议优化网络,比如打开/切换代理等。
这个问题是否已有issue
运行环境
当前配置信息
No response
问题详情
出错了,下面是一些报错信息: Request timed out after 12000 ms 如果是网络问题,建议优化网络,比如打开/切换代理等。
补充说明
普通对话没问题,进行askPDF需要较长推理时间就会提示超时。用的本地模型,超时等待时间是不是应该更长一点,或者提供自定义?
ollama部署在本地的linux机器上,zotero在window机器上。