yxlijun / DSFD.pytorch

DSFD implement with pytorch
167 stars 58 forks source link

about paper #1

Open foralliance opened 5 years ago

foralliance commented 5 years ago

1节“Feature learning部分”指出: 现有的FPN方法just aggregates hierarchical feature maps between high and low-level output layers, which does not consider the current layers information, and the context relationship between anchors is ignored。 2节“Feature Learning部分”指出: 现有的各种方法do not consider the current layers information.

结合Fig3和code,本文提出的FEM模块其实就是:FPN + 额外的dilation conv处理。有几个问题:

  1. 都是FPN,为什么说以前的方法没有考虑当前层的信息,FPN特征融合怎么会不考虑当前层呢?
  2. anchors之间的context relationship如何理解?3组额外的dilation conv操作为什么就能解决anchors之间的context问题?

不知道您是如何理解的?麻烦了!!

huazai-1994 commented 5 years ago

我也有这些疑问,同求答疑

ChauncyFr commented 5 years ago

1节“Feature learning部分”指出: 现有的FPN方法just aggregates hierarchical feature maps between high and low-level output layers, which does not consider the current layers information, and the context relationship between anchors is ignored。 2节“Feature Learning部分”指出: 现有的各种方法do not consider the current layers information.

结合Fig3和code,本文提出的FEM模块其实就是:FPN + 额外的dilation conv处理。有几个问题:

  1. 都是FPN,为什么说以前的方法没有考虑当前层的信息,FPN特征融合怎么会不考虑当前层呢?
  2. anchors之间的context relationship如何理解?3组额外的dilation conv操作为什么就能解决anchors之间的context问题?

不知道您是如何理解的?麻烦了!!

FPN是直接与前面的层相加,他这个模块不是分为两个部分吗,第一个部分用的原特征图(也就是他说的考虑了当前层信息),第二个部分才是相加(相当于FPN吧)。我是这样理解的,不知道对不对?