Closed BastianChen closed 1 year ago
我看这个网站里https://mygit.osfipin.com/repository/494232964写了2.x版本将flash_attn_unpadded_qkvpacked_func
更名成了 flash_attn_varlen_qkvpacked_func
.
我在代码了使用了最新的命名,可以跑通生成相应的文件,就是还不知道后面的finetune会不会有问题。
你可以对比开启与关闭flash-attn的loss曲线,一般来说loss曲线的趋势是一致的,loss值也应该非常接近
你好,我在执行
python convert2ckpt.py --mp_world_size 4 --model_name_or_path /path/to/llama-7b-hf --output_dir /path/to/llama-7b-init-ckpt
时报了以下错误:`ImportError: cannot import name 'flash_attn_unpadded_qkvpacked_func' from 'flash_attn.flash_attn_interface'
看了下
flash_attn.flash_attn_interface
脚本里面确实没有flash_attn_unpadded_qkvpacked_func
函数,我用的环境是pytorch1.13, python3.10, flash-attn.2.0.8, 能否提供下你的环境或者解决方案吗?