-
**问题描述 / Problem Description**
1、调用zhipu-api和qwen-api等在线模型时报错TypeError: Caught exception: object of type 'NoneType' has no len();
2、来回切换模型报错streamlit.errors.DuplicateWidgetID: There are multiple wid…
-
### MaxKB 版本
1.2.0
### 请描述您的需求或者改进建议
当前知识库搜索匹配后,允许提交的最多引用字符数是10000。如qwen plus api可以支持30k输入。希望将最多引用字符数设置为自定义输入模式。
### 请描述你建议的实现方案
最多引用字符数设置为自定义输入模式,可以填一个默认值(如5000),如果用户自己编辑,可以写一个自定义的正整数,如30000(30k…
cgdg3 updated
3 months ago
-
-
聊天对话回答完问题后无法结束聊天一直在重复打印
![image](https://github.com/chatchat-space/Langchain-Chatchat/assets/70123250/3bbe304d-5b9c-464b-9d66-14677c2aab80)
docker 运行参数命令:
docker run --runtime nvidia --gpus al…
-
**问题描述 / Problem Description**
在FastGPT看到支持csv格式导入
导入最终效果如下:
#2007 #3332 有类似的想法,我想在langchain-chatchat实现同样的功能:
1. 通过csv的方式导入QA问答对文档。
2. embedding 的时候只做Q的embedding,。
3. 向量搜索的时候:用户Q和知…
-
### System Info
Generating with GPTQ models encounters the following errors after merging this PR: https://github.com/huggingface/transformers/pull/30209 @younesbelkada @SunMarc
The error inform…
-
RuntimeError: CUDA error: too many resources requested for launch
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
V100 lora 微调 qwenvl2-2b-instruct 出现上述错误
-
ipex-llm + deepspeed run Qwen-7B-Chat with the following error:
[0] RuntimeError: shape '[1, 1024, 16, 128]' is invalid for input of size 4194304
accelerate 0.29.2
mpi4py …
-
When i use python_api_example or streaming_llm python scripts to inference Qwen-14B-Chat,the first two questions were outputted normally, but the third question has been repeating itself since then. I…
-
**问题描述 / Problem Description**
用简洁明了的语言描述这个问题 / Describe the problem in a clear and concise manner.
使用docker拉取镜像,进入后配置星火API后重启,使用星火api显示错误
原因是server/model_workers/xinghuo.py的domain写错了,应该是generalv3.…