-
我们使用的最新的代码,在使用qianfan-api的时候,每次都是第一次chat都没有问题,但是再次问问题的时候就出现这个错误:
2023-10-17 06:40:01 | INFO | httpx | HTTP Request: POST https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/eb-instant?a…
-
**问题描述 / Problem Description**
执行完命令后,加载的三个本地模型,然后只有一个本地模型可用
**复现问题的步骤 / Steps to Reproduce**
1. 执行 'python startup.py -a'
2. 点击 '7861端口下的api, 查看当前加载的模型时,只显示一个baichuan2-7b的模型'
**预期的结果 / Expe…
-
**问题描述 / Problem Description**
model_config.py中LLM_MODEL指定为LANGCHAIN_LLM_MODEL中定义的MODEL API,不本地启动模型,进入web页面报错变量index越界
是设计上要求本地必须启动一个MODEL_PATH.llm_model里的模型吗
**环境信息 / Environment Information**
…
-
**问题描述 **
模型配置为xinghuo-api,配置相关相关参数后模型访问一直失败
**复现问题的步骤 / Steps to Reproduce**
1. 模型配置为xinghuo-api
2. api_base_url配置为:wss://spark-api.xf-yun.com/v1.5/chat或wss://spark-api.xf-yun.com/v1.1/chat
…
-
> 为了提高交流效率,我们设立了官方 QQ 群和 QQ 频道,如果你在使用或者搭建过程中遇到了任何问题,请先第一时间加群或者频道咨询解决,除非是可以稳定复现的 Bug 或者较为有创意的功能建议,否则请不要随意往 Issue 区发送低质无意义帖子。
> [点击加入官方群聊](https://github.com/Yidadaa/ChatGPT-Next-Web/discussions/1724…
-
**问题描述 / Problem Description**
程序正常运行,就是回答太慢了,一个字一个字的要输出2分钟,使用的显卡为2块1066TI 6G,配置文件配置了4G的显存,但运算时显卡使用率0%,为啥?我的版本是2.10 cuda为12.1
![image](https://github.com/chatchat-space/Langchain-Chatchat/assets/374…
-
常规模式本地部署方案
git clone --recursive https://github.com/chatchat-space/Langchain-Chatchat.git
cd Langchain-Chatchat
pip install -r requirements.txt
开启 OCR GPU 加速,安装 rapidocr_paddle[gpu]
模型下载
g…
-
**问题描述 / Problem Description**
启动python startup.py -a 时出错
Process WEBUI Server:
Traceback (most recent call last):
File "C:\Program Files\Python38\lib\multiprocessing\process.py", line 315, in _…
-
Process model_worker - chatglm-6b-int4:
Traceback (most recent call last):
File "/usr/lib/python3.8/multiprocessing/process.py", line 315, in _bootstrap
self.run()
File "/usr/lib/python3.8…
-
## 引言
贵团队,你好!我近期发现了贵团队的win12项目,项目整体来看是非常不错的,但我也发现了一点问题。
## 问题
贵团队并没有自己的企业邮箱,也没有自己的域名和服务器,这些我认为是一个网站最重要的东西,并且网站的SEO优化也做的不是很好
## 影响
企业邮箱可以方便团队内的沟通,域名可以绑定网站,离国内近一点的服务器可以增加访问速度
## 修复
…