DefTruth / lite.ai.toolkit

🛠 A lite C++ toolkit of awesome AI models, support ONNXRuntime, MNN. Contains YOLOv5, YOLOv6, YOLOX, YOLOv8, FaceDet, HeadSeg, HeadPose, Matting etc. Engine: ONNXRuntime, MNN.
https://github.com/DefTruth/lite.ai.toolkit
GNU General Public License v3.0
3.53k stars 672 forks source link

windows版本的64位基于onnxruntime gpu的有人成功跑起来了吗 #372

Closed chfeizy closed 1 year ago

chfeizy commented 1 year ago

目前使用1.11.1不使用cuda直接cpu可以跑起来 开启ENABLE_ONNXRUNTIME_CUDA到了 auto output_tensors = ort_session->Run( Ort::RunOptions{nullptr}, input_node_names.data(), input_tensors.data(), num_inputs, output_node_names.data(), num_outputs ); 直接就报错 目前测试的rvm

DefTruth commented 1 year ago

关于RVM,我们已经在 PaddlePaddle/FastDeploy 中进行了一版移植,目前支持CPU/GPU/TensorRT推理,另外FastDeploy目前也集成了PaddleSeg的抠图模型和分割模型,你也可以尝试下哈:

chfeizy commented 1 year ago

PIPNet 还需要PIPNet 这个