Kaiseem / DAR-UNet

[JBHI2022] A novel 3D unsupervised domain adaptation framework for cross-modality medical image segmentation
Apache License 2.0
40 stars 5 forks source link

关于stage1的效果 #21

Open Mors20 opened 6 months ago

Mors20 commented 6 months ago

您好,感谢你这项出色的工作,我有两个问题想要向您请教, 1) 在stage_1.5_i2i_inference.py中,您给出了CT2MR的代码,我用您给出的数据中的 'source_training_npy'和'target_training_npy'文件夹下 的数据作为source和target进行了CT2MR的转换(使用权重'enc_40.pt').但是效果相较您转换好的('source2target_training_npy_multi_style'文件下的结果)有一定差距,想知道这是什么原因造成的? 2) 为了进行MR2CT的转换,根据我的理解,我把stage_1.5_i2i_inference.py'中的 https://github.com/Kaiseem/DAR-UNet/blob/056d3fc2918d8a9056ad75f99c87ce45045406cd/stage_1.5_i2i_inference.py#L33 更改为: s=trainer.enc_s_a(single_img).cpu().numpy()[0] 并交换了source和target的文件夹路径,不知道这样的做法是否正确?结果仍有差距,且差距相比问题1更大。 如图是CT2MR和MR2CT的转换结果: 20240305-233807

20240305-233759

Kaiseem commented 6 months ago

可以检查一下图像是否是大小为512的,我印象里有384的图,如果是384的我应该是先pad到512,style transfer后再变回384,因为一阶段的style transfer是512训练的,不是512的图inference会OOD

Mors20 commented 6 months ago

感谢回答, 我刚才去检查了一下,图像大小都是512的,只是您给出的结果里面大小不一,但是'source_training_npy'和'target_training_npy'文件夹下 的数据都是512512n的

Mors20 commented 6 months ago

想请问一下你是怎么转换得到那样效果的图的呢,权重和代码是我描述的吗

Kaiseem commented 6 months ago

是的,不知道为什么会有差距,可能是torch版本造成的?可以测一下FID距离吗?我不知道差距有多少。此外 把xy轴transpose一下看看,我印象里切片的人的正面是朝上的而不是这里展示的朝左(也有可能是浏览器不一样导致)