Open WenjunHuang94 opened 6 months ago
我对代码做了一些轻微的修改,修改的原因是程序报告了错误。修改如下:
但我不明白这是否会导致模型创建时结构变化,从而引导模型参数加载时对应不上model结构。
其中 config_json = '/home/hwj/.cache/huggingface/hub/models--han1997--cobra/snapshots/3d1aa9101b8276f9c721237e685cc83ef1d0f79f/cobra+3b/config.json'
config_json内容如下: config.json
@huangwenjunlovedy 请用requirements.txt指定版本的transformers,高版本的transformers目前会有这样的兼容性问题
谢谢。在您刚回复的时候,我刚好简单地修改了下代码跑通了。就是把projector模型的形状,改成和权重参数形状一样。
我等会试着按您说的,不自己做代码修改。而是使用requirements.txt指定版本的transformers去尝试跑通! 再次感谢您的回复!
@huangwenjunlovedy 请用requirements.txt指定版本的transformers,高版本的transformers目前会有这样的兼容性问题
我没有在您的cobra github上找到requirements.txt。你能提供下吗
@huangwenjunlovedy Sorry,我想说的是pyproject.toml
@huangwenjunlovedy Sorry,我想说的是pyproject.toml
已解决。十分感谢! 想请问下后续如果要用高版本的transformers,应该怎么避免这个问题呢
Error loading model parameters, it should be that the loaded model does not match the previously defined model parameters
pretrained_checkpoint = '/home/hwj/.cache/huggingface/hub/models--han1997--cobra/snapshots/3d1aa9101b8276f9c721237e685cc83ef1d0f79f/cobra+3b/checkpoints/latest-checkpoint.pt'
The model structure of VLM is printed as follows: vlm-model.txt