Open ghost opened 5 years ago
从某种意义上,伴随因子f的上采样是对步长为1/f的分数式输入的卷积操作。只要f是整数,一种自然的方法进行上采样就是向后卷积(有时称为去卷积)伴随输出步长为f。这样的操作实现是不重要的,因为它只是简单的调换了卷积的顺推法和逆推法。所以上采样在网内通过计算像素级别的损失的反向传播用于端到端的学习。
需要注意的是去卷积滤波在这种层面上不需要被固定不变(比如双线性上采样)但是可以被学习。一堆反褶积层和激励函数甚至能学习一种非线性上采样。在我们的实验中,我们发现在网内的上采样对于学习dense prediction是快速且有效的
可以从最近的相关的论文中了解过去这些年的语义分割方法的发展历史.
https://www.groundai.com/project/pyramid-attention-network-for-semantic-segmentation/#section_3
总结:
维特比算法是基于当前所有存在的要考虑的节点中的最优子路径, 计算寻找出到达下一批节点的最优路径(每个下一批次的节点都有一个对应的最有结果).
最后总的从结果中取最优的路径.
这个算法在log-model, MEMMs, CRFs中都起到关键作用
FCN中deconv是初始化与前面的conv不同么?
学姐的代码里这里的对于转置卷积的初始化操作有些特别, 不太理解。
我们将2x上采样初始化为双线性插值, 但允许按照3.3节所述学习参数( We initialize the upsampling tobilinear interpolation, but allow the parameters to be learnedas described in Section 3.3.)
这里使用的双线性插值的方式来进行的初始化.