Open gitmhg opened 1 year ago
你好,理论上这个服务的推理速度,和你直接调用模块对你的数据进行推理的速度是一样的,你可以直接使用module来预测你的数据,记入一下时间,然后记录一下你的请求到回来的时间,看看两者差的大不大。这个nvidia-smi是短时间内的"瞬时利用率",如果你用这个命令时候,GPU已经推理完了,那可能这时候就会显示为0。
你好,理论上这个服务的推理速度,和你直接调用模块对你的数据进行推理的速度是一样的,你可以直接使用module来预测你的数据,记入一下时间,然后记录一下你的请求到回来的时间,看看两者差的大不大。这个nvidia-smi是短时间内的"瞬时利用率",如果你用这个命令时候,GPU已经推理完了,那可能这时候就会显示为0。 我是hub serving部署,部署命令: hub serving start --config config.json config.json为: 同时为了排除hub的问题我也用inference_model进行推理测试 发现推理速度很快,而且gpu使用率很高
你好,理论上这个服务的推理速度,和你直接调用模块对你的数据进行推理的速度是一样的,你可以直接使用module来预测你的数据,记入一下时间,然后记录一下你的请求到回来的时间,看看两者差的大不大。这个nvidia-smi是短时间内的"瞬时利用率",如果你用这个命令时候,GPU已经推理完了,那可能这时候就会显示为0。
我用hub开源的模型能够使用gpu,但是自己的模型用hub启动显卡利用率为0. 这是我的模型,您方便的话帮我看下是否是模型的问题 链接:https://pan.baidu.com/s/1-0S_UK78a01nptQdS0h1KA 提取码:6666
欢迎您反馈PaddleHub使用问题,非常感谢您对PaddleHub的贡献! 在留下您的问题时,辛苦您同步提供如下信息:
2)系统环境:Linux python3.8 Ubuntu20.04 3090显卡
{ "modules_info": { "helmet_hub": { "init_args": { "version": "1.0.0" }, "predict_args": { "batch_size": 100, "use_gpu": true } } }, "port": 8866, "use_multiprocess": false, "workers": 2, "gpu": "1,2,3" }