gangweiX / IGEV

[CVPR 2023] Iterative Geometry Encoding Volume for Stereo Matching
MIT License
550 stars 66 forks source link

关于demo_imgs.py的问题 #77

Open 1334233852 opened 3 months ago

1334233852 commented 3 months ago

作者您好!非常感谢您的工作和贡献!我使用在Middlebury公开数据集预训练的模型权重,直接通过demo_imgs.py对一对双目图像进行了推理预测,效果还挺好的。这里提问一个简单的问题。

  1. 推理出来的图片是视差图吗(刚接触立体匹配方面),如果我对已经推理过的双目图像对中的左目图像中的某个像素坐标获取的直接是真实世界坐标吗?如果不是,是否需要相机真实标定参数进行转化。
gangweiX commented 3 months ago

经过model得到的视差图就是真实的视差图,但是demo_imgs.py中可视化出来的图片是经过颜色映射后的,如果你想要真实的视差图,就不要经过颜色映射了。视差图表示的是像素的偏移量,即同一个物体在左右图中的像素坐标上的差异像素,它不表示真实世界坐标。如果想要获得真实世界中的深度D,则需要通过三角转换:D=fb/d,其中f表示相机的焦距,b表示双目相机的基线距离,d表示预测的视差。2024-07-28 16:01:58>"Xiaochuan SUN" 写道:

作者您好!非常感谢您的工作和贡献!我使用在Middlebury公开数据集预训练的模型权重,直接通过demo_imgs.py对一对双目图像进行了推理预测,效果还挺好的。这里提问一个简单的问题。

推理出来的图片是视差图吗(刚接触立体匹配方面),如果我对已经推理过的双目图像对中的左目图像中的某个像素坐标获取的直接是真实世界坐标吗?如果不是,是否需要相机真实标定参数进行转化。

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>

1334233852 commented 3 months ago

经过model得到的视差图就是真实的视差图,但是demo_imgs.py中可视化出来的图片是经过颜色映射后的,如果你想要真实的视差图,就不要经过颜色映射了。视差图表示的是像素的偏移量,即同一个物体在左右图中的像素坐标上的差异像素,它不表示真实世界坐标。如果想要获得真实世界中的深度D,则需要通过三角转换:D=fb/d,其中f表示相机的焦距,b表示双目相机的基线距离,d表示预测的视差。2024-07-28 16:01:58>"Xiaochuan SUN" 写道: 作者您好!非常感谢您的工作和贡献!我使用在Middlebury公开数据集预训练的模型权重,直接通过demo_imgs.py对一对双目图像进行了推理预测,效果还挺好的。这里提问一个简单的问题。 推理出来的图片是视差图吗(刚接触立体匹配方面),如果我对已经推理过的双目图像对中的左目图像中的某个像素坐标获取的直接是真实世界坐标吗?如果不是,是否需要相机真实标定参数进行转化。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>

您好,非常感谢您的回复!请问这张经过推理预测的图像也是经过颜色映射的吗?在demo_imgs.py代码里面我注释了cv2.imwrite(filename, cv2.applyColorMap(cv2.convertScaleAbs(disp.squeeze(), alpha=0.01),cv2.COLORMAP_JET), [int(cv2.IMWRITE_PNG_COMPRESSION), 0]) 注释这行之后得到的这张图片。这张图片如果是经过颜色映射我应该如何恢复回去?如果这张图片没有经过颜色映射,那么基于您的上面回答就可以实现相关操作了是吧? test-61

gangweiX commented 3 months ago

np.save直接保存的就是没有经过颜色映射的视差图2024-07-29 09:26:54>"Xiaochuan SUN" 写道:

经过model得到的视差图就是真实的视差图,但是demo_imgs.py中可视化出来的图片是经过颜色映射后的,如果你想要真实的视差图,就不要经过颜色映射了。视差图表示的是像素的偏移量,即同一个物体在左右图中的像素坐标上的差异像素,它不表示真实世界坐标。如果想要获得真实世界中的深度D,则需要通过三角转换:D=fb/d,其中f表示相机的焦距,b表示双目相机的基线距离,d表示预测的视差。2024-07-28 16:01:58>"Xiaochuan SUN" 写道: 作者您好!非常感谢您的工作和贡献!我使用在Middlebury公开数据集预训练的模型权重,直接通过demo_imgs.py对一对双目图像进行了推理预测,效果还挺好的。这里提问一个简单的问题。 推理出来的图片是视差图吗(刚接触立体匹配方面),如果我对已经推理过的双目图像对中的左目图像中的某个像素坐标获取的直接是真实世界坐标吗?如果不是,是否需要相机真实标定参数进行转化。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>

您好,非常感谢您的回复!请问这张经过推理预测的图像也是经过颜色映射的吗?在demo_imgs.py代码里面我注释了cv2.imwrite(filename, cv2.applyColorMap(cv2.convertScaleAbs(disp.squeeze(), alpha=0.01),cv2.COLORMAP_JET), [int(cv2.IMWRITE_PNG_COMPRESSION), 0]) 注释这行之后得到的这张图片。这张图片如果是经过颜色映射我应该如何恢复回去?如果这张图片没有经过颜色映射,那么基于您的上面回答就可以实现相关操作了是吧? test-61.png (view on web)

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

1334233852 commented 3 months ago

:

您好,抱歉,还是要打扰您一下,我有个疑问如果使用np.save保存的话不是保存的视差图的.npy文件吗,我想保存.png,我这里直接cv2.imwrite(filename,disp) questionplt.imsave(output_directory / f"{file_stem}.png", disp.squeeze(), cmap='jet')注释了,但是这样运行demo出现下面错误 question2