caiyuanhao1998 / Retinexformer

"Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement" (ICCV 2023) & (NTIRE 2024 Challenge)
https://arxiv.org/abs/2303.06705
MIT License
828 stars 64 forks source link

关于深度卷积 #92

Closed zsn1107 closed 2 months ago

zsn1107 commented 2 months ago

}LGDZS@{AX`6Z0%VC@TKIU1 请问这里的深度卷积的groups为何设置为n_fea_in。而不是n_fea_middle呢

caiyuanhao1998 commented 2 months ago

因为 n_fea_in 相对较大,分层过多会导致训练速度变慢,这种深度分离的操作其实对 GPU 不太友好,虽然显示的 RAM 占用并不多。

如果觉得我们的 repo 有用的话,帮我们点点 star 支持一下