Closed zhangjiantianyasmile closed 6 years ago
我是可以跑通,但是发现了一个错误,代码作者应该是吧权重更新条件搞反了 for j in range(row_S): weights[row_A + j] = weights[row_A + j] * np.power(bata_T[0, i],(-np.abs(result_label[row_A + j, i] - label_S[j])))
# 调整辅域样本权重
for j in range(row_A):
weights[j] = weights[j] * np.power(bata, np.abs(result_label[j, i] - label_A[j]))
源数据应该bata_T 的负次幂 我对了戴文渊的论文,应该是搞错了
经您的提示,我也发现权重更新写错了,代码作者把戴文渊论文里面提到的权重更新公式两个for循环上下颠倒了,看起来好难受的说,关键是负号写错位置了。您修改的权重更新应该是对的。 重新看了下代码和paper算法,还没有发现其他错误。 待我先看一下修改后的权重更新实验结果如何再来回帖。
代码里面更新权重的方向确实跟论文的反了,之前我用论文的方法去训练,发现结果一直不能收敛,反而误差越来越大,但是反方向却收敛了,这个问题希望大家可以共同解决下,数据是用这里边下载的:https://www.kesci.com/apps/home/#!/competition/58e46b3b9ed26b1e09bfbbb7/content/0
重新看了下代码和paper算法,发现beta的值好像存在问题。 bata = 1 / (1 + np.sqrt(2 * np.log(row_A) / N)) #个人调整后的beta 还有一处是代码作者为了防止过拟合添加的代码: if error_rate == 0: N = i break # 防止过拟合 为什么这样才做就能防止过拟合了,不太明白,烦请知之者告知。 还有个问题,就是关于这个Learner,文章里是用SVM实现的,代码是用决策树实现的, 我也想用SVM实现,还不清楚样本权重(权重向量)该这么用,希望大佬能给些支持。 未完待续(先贴上评论,再继续写) 更新: 我在第一次评论上提到的问题还是存在的(预测结果还是全1,当然tradaboost给出的error_rate还一直是0)
Svm 直接用sklearn就好了,你可以查查用法……还
权重更新反了,那么这个问题也就没有意义了,代码作者可以把每次权重打印出来看,你会发现反了以后,最终误差收敛是因为把误分类的点全部过滤掉了,并没有起到对源数据集分类的意义了……我做的也是收敛,但是开始误差比较大,接近0.5,不能达到戴文渊论文的收敛图形,我也是有点困惑,希望大家多交流……我硕士论文题目想做跟这个相关的
提前结束迭代是防止数据过拟合其中的一种方法
@xiaoqianjia 是的,所以目前这个问题还没得到好的解答,你们如果有其他数据,可以共享出来,一起探讨下,代码我晚点更新
@chenchiwei 我用的sklearn里面 20newsgroup因为戴文渊论文用的这个,分类也是一样的,但是最后虽然收敛,一开始误差太大……我也是有点不知道怎么解决。但是从权重变化开,确实这种做法让误分类的点变得非常少了,防止过拟合那个条件还不错
@zhangjiantianyasmile 建议试试linearSVM logisticRegression, 决策树有的时候分类太强也会导致误差为0
感谢 @xiaoqianjia ,使用linearSVM已经解决了分类结果全1的问题。
背景:数据是自己的数据,用SVM,DT跑过,数据很正常,预测结果也正常,数据没有缺失值。 问题:用tradadboost跑的数据的预测结果总是全1,严重怀疑tradaboost代码存在问题。 关于label:为了排除是label的错误,我把数据label放在第1列、最后一列以及trans_S,transA,test数据集中有无标签均进行了测试,得到的结果是一样的(预测结果全1)。 极端测试:我选择一些标签为0的数据进行训练测试,结果给出的预测还是全1→→。 最后,还是上面问题说到的,严重怀疑tradaboost代码写的有些问题。 当然,也不能完全排除我自己代码可能存在的问题,希望能与志同道合的好友一起讨论,感激不尽。