-
**问题描述 / Problem Description**
在使用chroma作为向量数据库时,不管提问的问题是什么总是返回3个相同的匹配文段,并且返回的匹配文段与问题毫不相关。
**复现问题的步骤 / Steps to Reproduce**
使用chroma进行文段向量存储,进行提问
**预期的结果 / Expected Result**
应该匹配到正确的文段并正确回答
…
HO-UN updated
7 months ago
-
**问题描述 / Problem Description**
Prompt config中的修改没有效果,目前已测试GLM3-6B, QWEN1.5 13B。
![d3334f1e4b568284983a19e961fd0d0](https://github.com/chatchat-space/Langchain-Chatchat/assets/125440255/04a3d912-12…
-
### 请提出你的问题
我参考这里 https://aistudio.baidu.com/projectdetail/6629280 的说明区载入chatglm2-6b 推理
1、导入PaddleNLP(ChatGLM2)相关库,定义推理函数
from PaddleNLP.llm.chatglm.predict_generation import Predictor
from Pa…
-
**问题描述 / Problem Description**
用简洁明了的语言描述这个问题 / Describe the problem in a clear and concise manner.
**复现问题的步骤 / Steps to Reproduce**
1. 执行 '...' / Run '...'
2. 点击 '...' / Click '...'
3. 滚动到 '..…
-
like the title,i want use chatglm model or other chinese model??
nzky0 updated
4 months ago
-
2024-03-10 09:54:49 | INFO | model_worker | Loading the model ['chatglm-6b-int4'] on worker 88957e44 ...
2024-03-10 09:54:49 | ERROR | stderr | Process model_worker - chatglm-6b-int4:
2024-03-10 09:…
cstkn updated
7 months ago
-
### Reminder
- [X] I have read the README and searched the existing issues.
### Reproduction
个人第一次接触这一块的知识
这里是PC机器,RTX 3070 显卡 16G ,训练时提示“Failed.” 结果,导致 "Loss" 无任何数据。
以下是通过网页生成的最终执行脚本
…
-
**问题描述 / Problem Description**
GLM4-Chat+Xinference,Follow了README的步骤,启动了模型之后,显存显示模型已经启动了,在xinference那边显示两个model也启动了。在chatchat的ui这边报错InternalServerError: Internal Server Error
**环境信息 / Environment …
-
目前问题:一个卡的显存不够用,需要把一个模型拆分到2个卡中进行推理。。提供web服务。
看到paddlenlp推荐采用fastdeploy进行推理。
-
**问题描述 / Problem Description**
用简洁明了的语言描述这个问题 / Describe the problem in a clear and concise manner.
**复现问题的步骤 / Steps to Reproduce**
1. 执行 '...' / Run '...'
2. 点击 '...' / Click '...'
3. 滚动到 '..…