Closed 1SingleFeng closed 1 month ago
可以试试看正常的float16,或者等我们后续官方支持float16,在那之前如果你试work了,欢迎给我们提pr
基本上就是两个改动:
基本上就是两个改动:
- 注意力机制从fast_attn改为eager
- 模型改为float16 PS: 我是llm和visual encoder分别加载的, 所以需要单独将mlp projector也转为float16...
太感谢了,有时间我试一下
2. 模型改为float16
你好,想问一下这个地方除了只有这vision_model和llm需要将torch.type改为torch.float16吗?图1中出现的model=InternVLChatModel.from_pretrained()这里不用改吗?仍然保持torch.dtype=torch.bfloat16?
我想使用v100微调Mini-InternVL-Chat-2B-V1-5,但是v100不支持vfloat16,请问应该如何修改代码和模型使其能够完成训练