PaddlePaddle / Paddle-Lite

PaddlePaddle High Performance Deep Learning Inference Engine for Mobile and Edge (飞桨高性能深度学习端侧推理引擎)
https://www.paddlepaddle.org.cn/lite
Apache License 2.0
6.97k stars 1.61k forks source link

全志A133 OPENCL性能测试 #10578

Open fangbaolei opened 1 month ago

fangbaolei commented 1 month ago

想全志A133 OPENCL性能测试,用下面的命令跑起来后发现CPU 一直有一个核被占用100%,GPU 利用率在30-40%的样子,这个正常吗,opengl 模式怎么会消耗CPU资源这么多 ./benchmark_bin \ --model_file=MobileNetV3_small_x1_0_infer/inference.pdmodel \ --param_file=MobileNetV3_small_x1_0_infer/inference.pdiparams \ --input_shape=1,3,224,224 \ --warmup=10 \ --repeats=2000 \ --backend=opencl,arm \ --opencl_cache_dir=./tmp \ --opencl_kernel_cache_file=MobileNetV1_kernel.bin \ --opencl_tuned_file=MobileNetV1_tuned.bin

ddchenhao66 commented 1 month ago

可以把对应的nb模型上传,检查下是不是大部分算子都还是跑在cpu上,导致cpu跑满。

fangbaolei commented 4 weeks ago

inference_model2.tar.gz 抱歉,上面的问题描述有些问题,CPU占用100%的是上传的这个yolo模型,麻烦帮忙看下算子是不是很多在CPU上跑,MobileNetV1那个CPU 占用在30%-40%的样子

ddchenhao66 commented 4 weeks ago

看了nb模型,确实里面会插入很多io_copy算子把数据传回给cpu上计算,会在cpu上去做reshape和transpose等操作。

fangbaolei commented 4 weeks ago

有没有工具可以自己看nb模型的算子是CPU上执行的还是在gpu上,这样针对一些效果好的,算子都在gpu上跑的名模型,开发者可以初步做一个判断,能不能通过opencl 在GPU上跑,且能获得比较好的综合性能