Open SAwxl opened 5 years ago
误差计算部分,也就是在calculate_error函数中,计算的结果实际上是每个弱分类器对于每次迭代的残差拟合的误差。我认为正确的误差计算应该是:在第i次迭代结束时,也就是在生成第i个弱分类器后,我们得到了弱分类器的模型以及其占有的权重,则第i次迭代之后总分类器的误差应该是从第1个到第i个弱分类器的权重乘以模型输出之和。具体参考adaboost的误差计算结果。
此外,tradaboost算法中,计算误差使用的是后N/2个弱分类器的输出,忽略了前N/2个弱分类器的输出,这个地方有大神可以解释一下吗?论文中的证明虽然正确,但总感觉怪怪的
误差计算部分,也就是在calculate_error函数中,计算的结果实际上是每个弱分类器对于每次迭代的残差拟合的误差。我认为正确的误差计算应该是:在第i次迭代结束时,也就是在生成第i个弱分类器后,我们得到了弱分类器的模型以及其占有的权重,则第i次迭代之后总分类器的误差应该是从第1个到第i个弱分类器的权重乘以模型输出之和。具体参考adaboost的误差计算结果。
此外,tradaboost算法中,计算误差使用的是后N/2个弱分类器的输出,忽略了前N/2个弱分类器的输出,这个地方有大神可以解释一下吗?论文中的证明虽然正确,但总感觉怪怪的