Open equalman opened 8 months ago
应该是自训练模型中由paddle.nn.Swish模块生成的模型节点没有beta属性, 这个是与paddlepaddle版本有关吧? 或者某种配置影响了这个beta属性?
你好 这个问题怎么处理? @TingquanGao
目前paddlelite对该算子尚未支持,我们会评估该需求。
想问下,是有在移动端设备部署的需求吗?
想问下,是有在移动端设备部署的需求吗?
最终在RK3568、RK3588芯片上
目前paddlelite对该算子尚未支持,我们会评估该需求。
为何官方下载的PP-OCRv4模型中的swish节点有beta属性呢, 用paddlelite可以转换的, paddlelite源码这个算子对beta属性是有要求的
目前paddlelite对该算子尚未支持,我们会评估该需求。
是否是paddlelite对有无beta属性的swish激活函数都做支持?
目前paddlelite对该算子尚未支持,我们会评估该需求。
为何官方下载的PP-OCRv4模型中的swish节点有beta属性呢, 用paddlelite可以转换的, paddlelite源码这个算子对beta属性是有要求的
paddlelite源码里是这样的, 包括develop分支
paddlelite paddleocr两个项目的issue区也有其他人提出类似问题
有后续了吗?自己训练的模型,想用在移动端,pdmodel 转.nb 遇到这个问题
请提出你的问题 Please ask your question
版本、环境信息: 1)paddlepaddle-gpu 版本:2.6.0.post116 paddlelite 版本 当前develop分支8795a4d3d v2.13rc v2.10 paddleocr版本 v2.7.1 2)Host 环境:x86_64 Ubuntu 20.04 3)运行设备环境:x86_64 Ubuntu 20.04转换为nb模型 rk3568运行 复现信息: 1、python tools/train.py -c configs/rec/PP-OCRv3/ch_PP-OCRv3_rec_distillation.yml 训练模型 ch_PP-OCRv3_rec_distillation.zip python tools/export_model.py -c "inference_model/ch_PP-OCRv3_rec_distillation/ch_PP-OCRv3_rec_distillation.yml" -o Global.pretrained_model="inference_model/ch_PP-OCRv3_rec_distillation/best_accuracy.pdparams" Global.save_inference_dir="inference_model/ch_PP-OCRv3_rec_distillation/new" Global.checkpoints="" 2、python 3.8.10 安装paddlelite v2.10 或者v2.13rc 或者编译paddlelite源码生成whl安装 3、paddle_lite_opt --model_file=inference.pdmodel --param_file=inference.pdiparams --optimize_out=./inference_vdevelop --valid_targets=arm --optimize_out_type=naive_buffer 问题描述: paddelite develop分支如下结果 Loading topology data from inference.pdmodel Loading params data from inference.pdiparams