-
下载了模型文件之后,运行web_demo_hf.py,加载模型文件这一步就各种报错
-
-
您好,想用VisualGLM-6b进行reward model的训练,目前输入数据是纯文本,自己照着deepspeed_chat改了一下,发现在计算时总出错,具体log如下:
File "/opt/conda/envs/rlhf_tw_test/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1501, in _call…
-
$ python web_demo_hf.py
Traceback (most recent call last):
File "web_demo_hf.py", line 6, in
model = AutoModel.from_pretrained("THUDM/visualglm-6b", trust_remote_code=True).half().cuda()
…
-
(visualGLM) root@iZbp1ewp3ew1qt4u8bdh0iZ:~/ai/VisualGLM-6B# bash finetune/finetune_visualglm.sh
finetune/finetune_visualglm.sh: line 5: $'\r': command not found
finetune/finetune_visualglm.sh: lin…
-
佬你好,问一下我看您放出的openi的xray数据,包含了xray和对应的caption,问一下,用这个数据对visualGLM微调,看您放出多伦对话的能力是被保存下来了吗?还是你微调的时候有额外增加多轮对话的数据?
```
>> X光影像路径:./data/Xray/861_1.png
>> 用户:这是一张什么图?
>> XrayGLM:这张图片显示的是一张肺部检查的X光片。
…
-
-
/root/autodl-tmp/XrayGLM/chatglm-6b tokenizer! Now you can get tokenizer() everywhere
其中ChatGLM-6B中的tokenizer()需要全部的权重吗?
-
在上传图片之后,运行报错,错误信息如下:
Traceback (most recent call last):
File "/mnt/amj/conda/envs/lora/lib/python3.9/site-packages/gradio/routes.py", line 412, in run_predict
output = await app.get_blocks().…
-
如题,环境是Ubuntu Mate 20.04 lts
Tesla M40 24G计算卡配合24核E5 2651 V2和16GB内存
CUDA环境是11.7,chatGLM-6B运行正常
>[2023-06-23 17:15:15,775] [INFO] [real_accelerator.py:110:get_accelerator] Setting ds_accelerator to c…