Closed charllll closed 4 months ago
@charllll 谢谢反馈。可否提供一下demo模型(在greater前增加input前的状态),以及运行onnxruntime所用的脚本,方便用来debug.
run:
polygraphy run one_greater.onnx --onnxrt
dump python 文件,可以看到input=[]
python -m onnxconverter_common.onnx2py one_greater.onnx one_greater.py
@charllll 你好,问题无法复现。我这边add input可以正常推理得到输出。操作步骤为:
加载和执行:
import numpy as np
import onnxruntime as ort
model_path = "./modified_one_greater.onnx"
session = ort.InferenceSession(model_path)
input_shape = (4, 1, 6, 2500, 1)
x = np.random.randn(*input_shape).astype(np.float32)
input_name = session.get_inputs()[0].name
outs = session.run(None, {input_name: x})
print(outs[0].shape) # (4, 1, 6, 2500, 1)
注意到初次comment提供的截图中,编辑后的模型输入名是“/input_0”。但如果只执行了Add Input操作的话,模型输入名应该是默认的”/Slice_7_output_0“。请问是否还进行了其他操作?可能是其他操作引入了问题。
先修改了greater input name (/Slice_7_output_0 -> /input_0),然后点击add input
@charllll 我提交了一个patch修复了该问题,可更新至最新代码看一下是否可以正常工作。谢谢反馈。
已经fix了,感谢!
这是我从其他model上截取的,但是缺少了input,所以我在greater 之前添加了一个input。但是onnxruntime 运行显示
非常感谢做出了这么棒的工具