Open yang-521 opened 1 year ago
在考虑中,不过短期内可能没有精力做。 代码层面应该不用怎么改动,关键在于配置环境,然后打包发行包
@hiroi-sora 你好,我是个开发小白。请问下:
docker -p <主机端口>:<容器端口>
,来做GPU的虚拟环境?2.5.2-gpu-cuda12.0-cudnn8.9-trt8.6
的官方镜像有22GB这么大。为什么会这么大?而umi-ocr也使用到paddle ocr模型,安装包却没超过300MB?难道不需要paddlepaddle-gpu
和paddlepaddle
的python库也可以做ocr吗?提前先感谢您能抽空看到这里🌷
- 如果做GPU,有没有必要用docker或podman等虚拟容器的端口映射docker -p <主机端口>:<容器端口>,来做GPU的虚拟环境?
我们考虑过一种方案:用户可以在高性能服务器(or家用电脑)上通过docker部署GPU版OCR引擎,局域网中所有设备的 Umi-OCR 都可以访问该服务器来执行OCR任务,而无需在物理系统上进行复杂的环境配置。
只是个想法,目前版本Umi还未支持。
- 因为我今天刚本地部署,2.5.2-gpu-cuda12.0-cudnn8.9-trt8.6的官方镜像有22GB这么大。为什么会这么大?
正常,cuda环境依赖库就是需要数G,乃至十几G的空间。这也是普通用户使用GPU服务的门槛之一。
也有部分显卡加速库不依赖(完整的)cuda,更易用。我们未来将研究下。
而umi-ocr也使用到paddle模型,安装包却没超过300MB?难道不需要paddlepaddle-gpu和paddlepaddle的python库也可以做ocr吗?
OCR确实不依赖GPU。OCR这样的神经网络模型可以看作一个具有很多参数的数学函数。任何人(推理后端)只要拿到参数(模型文件),就可以计算出相同的结果。Paddle的模型也支持多种推理后端,比如PP官方的paddle inference后端,onnx、ncnn等开源后端。
Umi的Paddle插件用的是 paddle inference C++后端,Rapid插件用的是 rapid onnx C++ 后端,它们的性能都比python版本更好,体积更小。
如果你想简单地在本地部署OCR,也可以尝试一下 PaddleOCR-json / RapidOCR-json 。
能够切换版本,以加速识别效率。