Closed 459737087 closed 9 months ago
pull最新代码并按照requirements安装最新的依赖试试
我觉得不是这个问题,因为7b,13b都正常使用。70B就报错了 @iMountTai
本项目未提供70B模型,有问题的话还请自行debug吧。 看最后一行错误,可以考虑围绕xformers或者改为flash_attention启动。 显存够的话也可以不用任何patch加载(代码自行修改)。
失败了,我也不知道为什么inference就不行,只能用别的方法做了
提交前必须检查以下项目
问题类型
模型推理
基础模型
Chinese-LLaMA-2 (7B/13B)
操作系统
Linux
详细描述问题
依赖情况(代码类问题务必提供)
运行日志或截图