-
```
#! /bin/bash
NUM_WORKERS=1
NUM_GPUS_PER_WORKER=4
MP_SIZE=1
script_path=$(realpath` $0)
script_dir=$(dirname $script_path)
main_dir=$(dirname $script_dir)
MODEL_TYPE="visualglm-6b"
MOD…
-
用最新的不修改是ok的,想测试以前的,修改文件latest对应的checkpoint,启动web_demo.py就卡着了:
python web_demo.py
[2023-10-29 08:23:41,107] [INFO] [real_accelerator.py:158:get_accelerator] Setting ds_accelerator to cuda (auto det…
-
我使用的是README中的测试代码,模型和参数是采用**本地上传**的模式。模型的下载使用的链接是“GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/visualglm-6b”,参数的下载链接是“https://cloud.tsinghua.edu.cn/d/43ffb021ca5f4897b56a”,都是参考README给出…
-
环境 CentOS,4090
拉代码,安装依赖,解压样例图,运行微调shell脚本之后下模型,模型下载完毕之后报Tokenizer的错误,错误信息如下
Traceback (most recent call last):
File "/data/project/VisualGLM-6B/finetune_visualglm.py", line 196, in
training…
-
您好,我使用“模型推理”部分代码运行示例图片(examples/1.jpeg, 泰坦尼克号),但是程序运行结果偏差很大。
程序如下:
运行结果如下:
感觉推理结果很离谱,我是按照文档说明进行配置的,一直搞不清楚哪里出了问题?我之前还试跑了您的chatglm和chatglm2,模型推理都没问题,所以感觉很奇怪,难道是visualglm的模型有问题?
-
Describe the bug
Running an error
Log output
Traceback (most recent call last):
File "/xxxxx/deepspeed_chat/training/step2_reward_model_finetuning/main.py", line 472, in
main()
File "/xxxxx/de…
-
执行python cli_demo.py时发生报错
![图片](https://github.com/THUDM/VisualGLM-6B/assets/71216040/6e818bda-d40d-4c1b-863e-33c100a0e9ad)
我希望下载运行sat的模型,请问是哪里出问题了。我没有设置SAT_HOME。
-
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/visualglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/visualglm-6b", trus…
-
**Describe the bug**
Running an error
Log output
Traceback (most recent call last):
File "/xxxxx/deepspeed_chat/training/step2_reward_model_finetuning/main.py", line 472, in
main()
Fi…
-
我们最近更新了代码和checkpoint的格式,需要安装最新版的sat,visualglm的代码也要保证最新。
用新版本代码跑旧版本的checkpoint会报错,用旧版本代码跑新版本的checkpoint会出现推理错误。
_Originally posted by @1049451037 in https://github.com/THUDM/VisualG…