Junda24 / AFNet

[CVPR 2024] Adaptive Fusion of Single-View and Multi-View Depth for Autonomous Driving
MIT License
136 stars 7 forks source link

对比实验,itermvs #9

Open liucsg opened 4 months ago

liucsg commented 4 months ago

请问您是重新训练了itermvs吗,另外,为什么选择itermvs作为baseline

Junda24 commented 4 months ago

是重新训练的,我的baseline是mvs2d,对比的几个经典方案是mvs2d和itermvs等,这是当时几个精度和效率兼具的sota方案

发自我的iPhone

------------------ 原始邮件 ------------------ 发件人: liucsg @.> 发送时间: 2024年5月7日 15:32 收件人: Junda24/AFNet @.> 抄送: Subscribed @.***> 主题: Re: [Junda24/AFNet] 对比实验,itermvs (Issue #9)

请问您是重新训练了itermvs吗,另外,为什么选择itermvs作为baseline

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>

liucsg commented 4 months ago

请问多相机自监督路线,有推荐的方法?

---- 回复的原邮件 ---- | 发件人 | Junda @.> | | 日期 | 2024年05月07日 16:34 | | 收件人 | @.> | | 抄送至 | @.>@.> | | 主题 | Re: [Junda24/AFNet] 对比实验,itermvs (Issue #9) |

是重新训练的,我的baseline是mvs2d,对比的几个经典方案是mvs2d和itermvs等,这是当时几个精度和效率兼具的sota方案

发自我的iPhone

------------------ 原始邮件 ------------------ 发件人: liucsg @.> 发送时间: 2024年5月7日 15:32 收件人: Junda24/AFNet @.> 抄送: Subscribed @.***> 主题: Re: [Junda24/AFNet] 对比实验,itermvs (Issue #9)

请问您是重新训练了itermvs吗,另外,为什么选择itermvs作为baseline

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you are subscribed to this thread.Message ID: @.***>

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>