THUDM / ChatGLM3

ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型
Apache License 2.0
13.44k stars 1.56k forks source link

微调后进行模型部署,网页版对话框能打开,进行对话无输出。 #1050

Closed yimisiyang closed 6 months ago

yimisiyang commented 7 months ago

Discussed in https://github.com/THUDM/ChatGLM3/discussions/1049

Originally posted by **yimisiyang** March 28, 2024 我使用的是官方ptuning demo进行训练、推理、部署,训练,推理可以跑通,运行 `bash web_demo.sh` 部署后,模型运行正常,GPU显存占用正常,但是web页面,输入问题后,无输出结果。截图如下 web_demo.sh运行图 ![捕获](https://github.com/THUDM/ChatGLM3/assets/40728232/17e8aafa-7a19-4c57-b330-546d139da7c0) web端输入问题后运行图 ![捕获1](https://github.com/THUDM/ChatGLM3/assets/40728232/c238da56-9230-4678-b99a-1a804d4c4428) GPU占用情况图,是否说明模型已成功运行? ![捕获2](https://github.com/THUDM/ChatGLM3/assets/40728232/5463808f-7d40-49d2-9aa9-57faa613fe32) 训练推理后输出的文件图 ![捕获3](https://github.com/THUDM/ChatGLM3/assets/40728232/6a4a2394-5bfd-40fb-8755-658f6abef312) 我调用的是cheakpoint 3000中的模型 ![捕获4](https://github.com/THUDM/ChatGLM3/assets/40728232/1ef6654a-c927-4a79-8187-56f327a08232)
zRzRzRzRzRzRzR commented 7 months ago

改了推理代码了吗,微调模型的话读取模型要修改代码,根微调中的inference.py 一样

yimisiyang commented 7 months ago

没有修改代码逻辑,只是添加了 model.to('cuda') 和 一个判断逻辑,打印一些日志。我用的demo github地址是这个https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning
分别走通了 bash train.shbash evaluate.sh 进行模型部署,运行 bash web_demo.sh时出现的问题。我修改的 main.py 中的代码如下: 添加 放到GPU上运行 捕获1 添加判断逻辑: 捕获 之所以添加这个判断逻辑,是因为不添加这个,在运行 bash train.sh 会报一个 bos token问题,添加完后刚开始会输出一些 BOS token not found in input_ids list 等一段时间才开始正常训练

zRzRzRzRzRzRzR commented 7 months ago

现在最新版本代码和推理全部够改了,以前的估计用不了诶