-
### Context
The current PaddlePaddle quantization implementation is different from ONNX,.
#### Same
- PaddlePaddle translates `quantize_linear` and `dequantize_linear` in the paddle frontend.…
-
Why is it that when I run the program to the first convolution operation of the hgnet_v2. py file, there is no progress in the program, and the graphics card memory usage is relatively low (about 2GB)…
-
请问测试的时候PaddlePaddle、PaddleSpeech、ppgan版本是多少,当前PaddlePaddle==2.5.0和PaddleSpeech、ppgan出现各种不兼容,光是安装就花费大量时间,如果能提供一个docker就更好了
-
各位老师好,我已按照官网流程进行paddle安装和编译,利用test_lenet_minst.py测试也没有问题;后续我安装了paddleocr想进行检测和识别,但是显示只能使用cpu版本的进行推理,请问怎么使用寒武纪的显卡进行检测和识别呢,需要修改哪些东西?另外在使用docker run时如果使用gpu可以指定--gpus all,类似的在寒武纪mlu可以指定显卡设备吗?paddleocr推理如…
-
### Feature request type
sample request
### Is your feature request related to a problem? Please describe
您好,GPU不兼容LocalFullModels.ChineseV4吗?使用LocalFullModels.ChineseV3会提取出乱码,LocalFullModels.Chine…
-
### 问题描述 Please describe your issue
`C++ Traceback (most recent call last):
--------------------------------------
0 paddle_infer::Predictor::Predictor(paddle::AnalysisConfig const&)
1 std::un…
-
运行指令:
python run.py --config_path=./configs/rtdetr_hgnetv2_x_qat_dis.yaml --save_dir='./output/' --devices='cpu'
配置文件:
Global:
reader_config: configs/rtdetr_reader.yml
include_nms: False
…
-
# 项目描述
ONNX是一种开放的深度学习模型交换格式,可让模型在不同平台和框架间无缝转换与部署,Paddle2ONNX开源仓库支持将飞桨的推理模型表示转换到ONNX算子协议以实现对接ONNX生态。飞桨在3.0Beta发布了新一代的中间表示(即Paddle IR),并升级了所有的算子定义形式,取代了2.x版本基于protobuf的中间表示。因此我们期望能够基于飞桨新一代Paddle IR的算子定…
0x45f updated
1 month ago
-
Pix2Pix模型用“AtoB”这种格式判断方向:
https://github.com/PaddlePaddle/PaddleGAN/blob/21ee373c2a9481231f50b32e0753d3f543a86396/ppgan/models/pix2pix_model.py#L81
但配置文件里direction的格式却是“a2b”“b2a”:
https://github.co…
-
版本兼容,报错
paddlepaddle-gpu 2.6.1.post117
fastdeploy-gpu-python 1.0.7
`import paddle
import fastdeploy`
报错RuntimeError: FastDeploy initalized failed! Error: DLL load failed while importing fas…