ShusenTang / Dive-into-DL-PyTorch

本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现改为PyTorch实现。
http://tangshusen.me/Dive-into-DL-PyTorch
Apache License 2.0
18.17k stars 5.38k forks source link

请问5.8节NiN网络中的1*1卷积核为什么用了好几个? #110

Open Kimiraha opened 4 years ago

Kimiraha commented 4 years ago

请问5.8节NiN网络中的1x1卷积核为什么用了好几个? 文中说该网络用1x1的卷积层加全局平均池化层替代了全连接层以减少参数 但是为什么在前几层特征提取的时候也使用了1x1卷积层呢? 这对后续的非1x1卷积运算有什么好处吗? 求各位不吝赐教!