Open dzcmingdi opened 2 years ago
load_param 前设置 net.opt.use_vulkan_compute = true;
load_param 前设置 net.opt.use_vulkan_compute = true;
设置了,还是会报错,我的模型是INT8的yolov5s,什么原因?
使用int8 模型是 会报 set_vulkan_compute failed, network use_vulkan_compute disabled fp16 和fp32 就能正常使用 windows端使用的ncnn
您好,我用了自己导出的yolov5n的模型,然后用GPU推理的时候,提示
W/ncnn: set_vulkan_compute failed, network use_vulkan_compute disabled
但是用仓库代码原本的模型就没问题,这是为什么呢?