-
在运行cli_demo.py进行部署时报错如下:
[2023-07-24 06:19:37,012] [INFO] [real_accelerator.py:133:get_accelerator] Setting ds_accelerator to cuda (auto detect)
/remote-home/cwli/anaconda3/envs/minigpt4/lib/python3…
-
Traceback (most recent call last):
File "C:\ProgramData\anaconda3\envs\chatglm\lib\site-packages\gradio\routes.py", line 401, in run_predict
output = await app.get_blocks().process_api(
Fil…
-
我从web_demo_hf.py启动,我发现有一个bug。就是成功启动后,如果不是先传一张图让模型识别,而是直接输入文字开始聊天,一定会报错或者没反应,然后模型怎么样都无法正常运作了,所以必须要先走图片识别,然后才可以各种文字聊天。希望调整一下。
-
您好,我最近在用visualglm做reward model的训练,在修改和查看代码的时候发现modeling_chatglm.py里有一行:torch_image = torch_image.to(self.dtype).to(self.device),请问这个self.dtype具体是指?我在代码里没有找到相关的定义
-
你好,多节点模型并行微调结束后,我尝试使用cli_demo_mp.pt进行推理,但是在load model时出现错误信息,model_parallel_size和当前配置文件不正确,详细信息如下:
![image](https://github.com/THUDM/VisualGLM-6B/assets/38753856/447d54da-f1e2-4525-a9f1-7bfd340cd2a1)…
-
在加载模型的过程中遇到了下方的错误:
ValueError: could not find the metadata file ../latest, please check --load
此前,还有提示缺少了“model_config.json”文件,但我通过复制别人的越过了这个问题。
请问这种情况我该如何解决?
-
如题,代码说明里面是对chatGLM的LoRA进行微调,可不可以对图像部分也进行微调呢
-
```python
[2024-09-11 14:38:37,895] [INFO] [checkpointing.py:229:model_parallel_cuda_manual_seed] > initializing model parallel cuda seeds on global rank 0, model parallel rank 0, and data parallel r…
-
CPU利用率800%,GPU利用率0%,怀疑都卡在读取数据中
-
有支持多轮对话finetune的实现吗?