-
### System Info / 系統信息
VIDIA-SMI 535.154.05 Driver Version: 535.154.05 CUDA Version: 12.2
python 3.11
### Running Xinference with Docker? / 是否使用 Docker 运行 Xinfernece?
- [ ] dock…
-
**问题描述 / Problem Description**
无法找到xinference中自定义的模型,并且提问出错
**复现问题的步骤 / Steps to Reproduce**
1. 执行 'xinference-local --host 0.0.0.0 --port 9997' 启动 xinference, 注册了 `bge-large-zh-lacal` 和 `glm4-lo…
kydbj updated
2 months ago
-
尝试用LMStudio发布LLM模型和embed模型,模型已发布成功,但执行chatchat kb -r后,前面创建矢量库都很正常,但好像创建完后卡住一直不结束,也没有错误信息报出。哪位大佬碰到过这样的问题?
最后的界面如下:
文档切分示例:page_content='ChatGPT是OpenAI开发的一个大型语言模型,可以提供各种主题的信息,\n# 如何向 ChatGPT 提问以获得高质量答…
-
目前没有找到相关方法和相关文档,可否提供下,谢谢
-
0.3版本可以支持配置在线模型吗,现在看虽然可以用oneapi配置在线大模型,但是无法实现在线embedding模型的加载,同时0.3版本也移除了0.2版本的本地化embedding模型功能,期望能出一下解决方案
-
How can I run the baseline mentioned in the paper (e.g. ReAct, CoT, ReWOO) by this repo?
-
Traceback (most recent call last):
File "/notebooks/ComfyUI/nodes.py", line 1888, in load_custom_node
module_spec.loader.exec_module(module)
File "", line 850, in exec_module
File "", li…
-
Hi
I get his error when running the shell command
```
stdout: ""
stderr: >-
Traceback (most recent call last):
File "/config/custom_components/openai_vision/image2text.py", line 206, i…
-
#### 问题描述与复现
[源码安装部署 chatchat](https://github.com/chatchat-space/Langchain-Chatchat/blob/master/docs/contributing/README_dev.md),使用 one-api 接入在线 Embedding (详见 Discussion https://github.com/chatchat-s…
-
问题描述 / Problem Description
确定在xinference中已经启动了qwen-vl-chat模型或者glm-4v-9b,在webui的模型配置中也能够选择qwen-vl-chat,可以进行正常的文本对话,但是图文问答时,报错。
报错信息:
xinference
{'platform_name': 'xinference', 'platform_type': …