Closed ma-biao closed 6 months ago
你好,请问转换模型是用于用于什么场景?另外请提供一下模型。
你好,转换模型主要用于生成onnx,使得在其他环境下能够加载对应的预训练模型。 D-Net模型https://github.com/PaddlePaddle/Research/tree/master/NLP/MRQA2019-D-NET/server,主体是这里的server,按照README可以下载三个预训练模型(wget --no-check-certificate https://baidu-nlp.bj.bcebos.com/D-Net/mrqa2019_inference_model.tar.gz)。
------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/Paddle2ONNX" @.>; 发送时间: 2021年9月8日(星期三) 下午2:06 @.>; @.**@.>; 主题: Re: [PaddlePaddle/Paddle2ONNX] unstack, one_hot, diag, logical_not op 不支持 (#315)
你好,请问转换模型是用于用于什么场景?另外请提供一下模型。
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe. Triage notifications on the go with GitHub Mobile for iOS or Android.
你好,此模型是老版本的NLP模型,我们目前支持的模型是2.0以上的飞桨模型,建议你使用最新的PaddleNLP。 链接:https://github.com/PaddlePaddle/PaddleNLP
好的,感谢反馈。
------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/Paddle2ONNX" @.>; 发送时间: 2021年9月9日(星期四) 下午2:39 @.>; @.**@.>; 主题: Re: [PaddlePaddle/Paddle2ONNX] unstack, one_hot, diag, logical_not op 不支持 (#315)
你好,此模型是老版本的NLP模型,我们目前支持的模型是2.0以上的飞桨模型,建议你使用最新的PaddleNLP。 链接:https://github.com/PaddlePaddle/PaddleNLP
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe. Triage notifications on the go with GitHub Mobile for iOS or Android.
将D-NET的三个预训练模型(Bert, ERNIE2.0, XLNET)保存的模型文件转为onnx时,都会报错缺少op,BERT和ERNIE2.0缺少unstack,XLNET缺少one_hot, diag, top_k, logical_not。
paddlepaddle==2.1.2 paddle2onnx==0.7