Closed lucifer714 closed 2 months ago
版本2.0,在设置机器人的时候选择模型提供方为自定义的时候,页面报错,其他的选项也没有了。
另外,设置ollama的api是http://127.0.0.1:11434/ 吗?
No response
- OS: - NVIDIA Driver: - CUDA: - Docker Compose: - NVIDIA GPU Memory:
删除本地存储中的useChatSetting就好了
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
当前行为 | Current Behavior
版本2.0,在设置机器人的时候选择模型提供方为自定义的时候,页面报错,其他的选项也没有了。
另外,设置ollama的api是http://127.0.0.1:11434/ 吗?
期望行为 | Expected Behavior
No response
运行环境 | Environment
QAnything日志 | QAnything logs
No response
复现方法 | Steps To Reproduce
No response
备注 | Anything else?
No response