Open wengwanjiang opened 2 months ago
你好!
问题1:这是由于新版本transforemer库不能加载旧的llava model,可以参考这个issue:https://github.com/haotian-liu/LLaVA/issues/968
问题2:该代码库使用clip processor来初始化processor:https://github.com/deepcs233/Visual-CoT/blob/ba9c0b36ca8ed9314b1be609e67f19dfa7c31bf9/llava/model/multimodal_encoder/clip_encoder.py#L23
问题3:这个报错看上去是传入了一个list,而不是模型路径?
问题3:这个报错看上去是传入了一个list,而不是模型路径?
My solution is modify the line 24 in config.json
to "mm_vision_tower": "openai/clip-vit-large-patch14-336",
as a string, but not a list like mm_vision_tower": ["openai/clip-vit-large-patch14-336"],
.
非常感谢能够提供readme.md以及权重 即使是按照readme.md中的步骤操作,在evaluatioon过程中仍然出现了许多问题,无法复现
若干错误,我按照README.md里的步骤安装环境,但是遇到了许多问题。
以及其他错误:
手动下载模型到./checkpoints/里报以下错误