Closed XksA-me closed 8 months ago
app.py 文件
记录下我在 matpool.com 复现过程: 租用环境:Pytorch 2.0 1、安装运行步骤: github 链接前加国内源可以加速下载,安装包也一样,如果是从github安装,在github链接前加上国内源即可:https://ghproxy.com/
git clone https://ghproxy.com/https://github.com/thomas-yanxin/LangChain-ChatGLM-Webui
cd LangChain-ChatGLM-Webui/
pip install -r requirements.txt
2、环境配置好,放模型,我的模型下载上传在矩池云网盘,目录是 /mnt/example/chatglm-6b
3、修改配置代码:把模型相对路径改下自己模型存放位置的绝对路径,就是上面写的,你要改成你自己模型所在位置
我只测试下 chatglm-6b,所以把默认模型改成了 chatglm-6b。
4、修改app.py代码:注释代理配置代码。
另外加了两个print打印异常信息,方便日志排查问题。
5、运行代码:
cd LangChain-ChatGLM-Webui/
python app.py
第一次启动会要下载写模型,国内访问huggingface时快时慢。。。如果有啥错误多运行几次,或者本地下载好上传到服务器。
6、页面显示
随便创建一个123.txt文件
文件sh上传完成后,需要点下知识库文件向量化
,然后就可以开始提问啦
7、提问 整体体验比较好,因为给的数据有限,所以效果自然有限,欢迎大家指正交流。
哦 我有一个问题,在提问的时候,程序运行日志会提示下面错误,但好像并不影响程序本身运行
如果可以提个PR趴~
不在服务器上设置代理,没有办法获得到public url
由于作者做了异常处理,如果没有配置代理或者端口不一致,可能直接显示“模型未成功重新加载,请点击重新加载模型”,而不清楚错误原因,建议这部分加些日志输出打印错误原因