microsoft / Relation-Aware-Global-Attention-Networks

We design an effective Relation-Aware Global Attention (RGA) module for CNNs to globally infer the attention.
MIT License
337 stars 65 forks source link

(height//4)*(width//4)是不是相当于在空间上做池化呢? #8

Open flymmmfly opened 4 years ago

flymmmfly commented 4 years ago

考虑到减少计算量,所以做整除处理,不知道我这样理解对不对

ZhiZZhang commented 4 years ago

考虑到减少计算量,所以做整除处理,不知道我这样理解对不对

height和width是原始输入分辨率,(height//4)*(width//4)是当前层的分辨率。