ACTNET 은 mobile devices 적합하도록 설계
*. .하다고 했는데 개인적으론 이점이 .의심스럽다. > 이 조건에 SOTA라니.ㅠ
Learnable non-linear activation layer > 이 논문에서 설명하는 의심스러운(?) 찾아봐도 관련연구가...ㅠ > 개인적으론 요런게 relu보다 좋을지 몰라도 밝힌 성능처럼 나올것같지 않다.
Sine-Hyperbolic function (SinH)
Exponential function (Exp)
Modified Weibull function (WB)
feature aggregation
1) Direct aggregation (DA) [19]: the features from the last convolution layers are aggregated using average pooling > neuralcode 논문
2) Region of Interest based aggregation (ROIA) [2]: the features are first max-pooled across several multiscale overlapping regions. The regional descriptors are aggregated using sum pooling > DIR 논문
3) SinH aggregation (SinHA): the features are transformed using the Sine-Hyperbolic activation layer before aggregation using average pooling
4) Exponential aggregation (ExpA): the features are passed through the Exponential activation layer before average pooling.
5) Weibull aggregation (WBA): the features are transformed using the Weibull activation layer before average pooling.
3~4> 이게 왜? relu해주는 것과 모가 틀리지.
실험결과
와 성능이..
결론
일단 대충 읽어본건데..디테일하게 읽어봐야겠다(업데이트 예정)
너무 이전 연구보다 뛰어나다..> 조금 높이는 것도 어려운데..이론적(이전에도 multi-layer aggreation들은 많았다..)으로 저런 성능이..되는 것이 살짝 의심스럽다(ㅎㅎ) > 너무 부정적으로 ㅠ
https://arxiv.org/abs/1907.05794