Open drakitLiu opened 5 months ago
感谢paddle辛勤付出! 以下是我转换大致过程(全程无报错,转换后onnx可视化正常): 1、python -u tools/export_model.py -c configs/wav2lip_hq.yaml --load applications/tools/checkpoints/wav2lip_hq.pdparams --inputs_size="-1,1,-1,-1;-1,6,-1,-1" 2、paddle2onnx --model_dir ./ --model_filename wav2lipmodelhq_netG.pdmodel --params_filename wav2lipmodelhq_netG.pdiparams --save_file model.onnx --enable_dev_version True --opset_version 13 --enable_onnx_checker True 3、onnx_model = onnx.load("model.onnx")
check = onnx.checker.check_model(onnx_model)
print('check: ', check) None 4、ort_inputs = {ort_sess.get_inputs()[0].name: mel_batch, ort_sess.get_inputs()[1].name: img_batch} pred = ort_sess.run(None, ort_inputs) print('pred', np.asarray(pred).shape) (1,128,3,96,96) # 那个1我不知道怎么出来的,128是batch,3好像是通道?奇了怪了 ,不应该是6吗?还有就是为什么wav2lip的输入通道是6?我看了onnx模型也没发现分组卷积啊?难道我搞错了?总之,
输出尺寸应该是(-1,6,96,96)对吧?可是我的onnx输出尺寸是(-1,3,96,96) 请帮忙理解一下~感谢~~~
感谢paddle辛勤付出! 以下是我转换大致过程(全程无报错,转换后onnx可视化正常): 1、python -u tools/export_model.py -c configs/wav2lip_hq.yaml --load applications/tools/checkpoints/wav2lip_hq.pdparams --inputs_size="-1,1,-1,-1;-1,6,-1,-1" 2、paddle2onnx --model_dir ./ --model_filename wav2lipmodelhq_netG.pdmodel --params_filename wav2lipmodelhq_netG.pdiparams --save_file model.onnx --enable_dev_version True --opset_version 13 --enable_onnx_checker True 3、onnx_model = onnx.load("model.onnx")
使用 ONNX 库检查 ONNX 模型是否合理
check = onnx.checker.check_model(onnx_model)
打印检查结果
print('check: ', check) None 4、ort_inputs = {ort_sess.get_inputs()[0].name: mel_batch, ort_sess.get_inputs()[1].name: img_batch} pred = ort_sess.run(None, ort_inputs) print('pred', np.asarray(pred).shape) (1,128,3,96,96) # 那个1我不知道怎么出来的,128是batch,3好像是通道?奇了怪了 ,不应该是6吗?还有就是为什么wav2lip的输入通道是6?我看了onnx模型也没发现分组卷积啊?难道我搞错了?总之,
输出尺寸应该是(-1,6,96,96)对吧?可是我的onnx输出尺寸是(-1,3,96,96) 请帮忙理解一下~感谢~~~