Closed XJF2332 closed 2 months ago
torch 2.3.1+cu121 pypi_0 pypi
torch-complex 0.4.4 pypi_0 pypi
torchaudio 2.3.1+cu121 pypi_0 pypi
torchmetrics 1.4.1 pypi_0 pypi
torchvision 0.18.1+cu121 pypi_0 pypi
torch版本不对,应该用install_env.bat里的torch。 https://hf-mirror.com/datasets/SpicyqSama007/windows_compile/tree/main
在webui里点编译模型之后再打开推理就无法推理
问题描述 由于
install_env.bat
用镜像站安装triton_windows
太慢,不用镜像站又直接不能下载(开了全局魔法也是这样),我就直接自己从脚本里写的huggingface页面下了triton_windows-0.1.0-py3-none-any.whl
然后pip install
安装的(先用了conda activate fishenv\env
)从启动开始到报错的整个控制台记录:
conda list
的结果:CUDA
和LLVM
都已经安装并且添加到了环境变量手动安装了
triton_windows
后再用install_env.bat
直接就是:复现 手动安装
triton_windows
后使用编译模型再打开推理,随便输入几句话点推理就会报错 另外,只要不用编译模型,就能正常推理其他 搜索过了有没有类似的issue,确实找到一个,不过那位的问题是因为路径中有空格,但我的路径中没有空格,并且我的triton是自行安装的,所以还是单独发一个issue