-
![image](https://github.com/labring/FastGPT/assets/40045458/f4e00747-897a-49ae-9a1d-966e94ff87d0)
![image](https://github.com/labring/FastGPT/assets/40045458/d99e8c87-96d6-403d-9b7d-f120bd1e3f91)
![…
-
**问题描述 / Problem Description**
使用ollama quentinz/bge-large-zh-v1.5,本地知识库对话后报错failed to create Embeddings for model: bge-large-zh-v1.5。
**配置信息**
~/.chatchat 下面的 json 文件
```shell
[
{
…
-
ipex-llm/python/dev/benchmark/all-in-one/run-srp.sh
Run Llama-2-7B-Chat-hf bigdl_ipex_bf16 Error on Intel(R) Xeon(R) w9-3475X
config.yaml
```
repo_id:
# - 'THUDM/chatglm2-6b'
- 'meta-l…
-
**问题描述 / Problem Description**
qwen本地部署的模型对话不会停止,会自问自答,当对话输出长的时候会出现。
我手动加上stop停止词["","",""]后,似乎修复了,我再观察一下
**预期的结果 / Expected Result**
对话正常停止
**环境信息 / Environment Information**
- 0.2.7 dev分支
…
-
**问题描述 / Problem Description**
单文件QA的时候,第一次上传文件特别慢
**复现问题的步骤 / Steps to Reproduce**
项目重新部署之后进行单个文件QA的话,第一次上传文档特别慢,之后的话就会快很多
**预期的结果 / Expected Result**
理论上初始化什么的应该在之前一步已经完成了,不知道慢的原因是什么
**实…
-
**问题描述 / Problem Description**
我在命令行使用python startup.py -a 命令时,出现如下问题:
![图片](https://github.com/chatchat-space/Langchain-Chatchat/assets/162102157/e83844ed-e9d8-4153-8813-e4f588c0a7c9)
requests.exc…
-
### Description
TogetherAI models:
- [x] Yi-34B-Chat
- [x] Qwen-14B-Chat
- [x] WizardLM-13b-v1.2
- [x] Mistral-7b-Instruct-v0.2
- [x] deepseek-coder-33b-instruct
- [x] Vicuna v1.5 (13B)
- [x…
-
项目版本 v0.2.8
使用了chatglm2-6b模型
问答时报了如下错误,请问是哪里的问题?
![WechatIMG281](https://github.com/chatchat-space/Langchain-Chatchat/assets/59103511/dfa148bb-f740-4ae5-b60b-58fca7d3665d)
![WechatIMG280](https:…
-
Dear @tridao, I have migrated FlashDecoing in FasterTransformer decoding phase on chatglm2 model, I just replaced ft_attention with mha_fwd_kvcache , but inference speed becoming much slower than ft_…
-
**问题描述 / Problem Description**
启动python startup.py -a 时出错
Process WEBUI Server:
Traceback (most recent call last):
File "C:\Program Files\Python38\lib\multiprocessing\process.py", line 315, in _…