ShusenTang / Dive-into-DL-PyTorch

本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现改为PyTorch实现。
http://tangshusen.me/Dive-into-DL-PyTorch
Apache License 2.0
18.17k stars 5.38k forks source link

请问第五章的lenet和alaxnet网络中转为全连接层时的4x4和5x5是怎么算出来的 #99

Open huqitu opened 4 years ago

huqitu commented 4 years ago

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(1644, 120), AlexNet nn.Linear(25655, 4096),

happyhugo commented 4 years ago

Lenet 应该是55,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是165*5

ShusenTang commented 4 years ago

Lenet 应该是5_5,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是16_5*5

Letnet论文最后是5x5,但是这里输入尺寸是28x28的而原lenet论文是32x32,所以这里是4x4,参见#28

ShusenTang commented 4 years ago

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),

这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的

MUFCRyan commented 2 years ago

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),

这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的

AlexNet的卷积层最后一层的卷积核大小为13x13,经过MaxPool的结果应该是 6x6,查阅的相关文章中也都是 6x6。但实际运行的结果是 5x5,这里实在不明白