Open lambda-xmu opened 5 years ago
大佬你好,我前两天就发现了这个连续特征的问题,跟您的想法一致,但是我现在遇到的问题是,即使删除掉所有的连续特征,然后对类别特征做任何常见的encoding操作,都会导致CV提升,而LB下降的特别厉害。另外5折训练不如单折200轮训练来的效果好(训练时间,CV以及LB),想请教下到底是什么原因呢?
@TillLindemann 大佬你好,我前两天就发现了这个连续特征的问题,跟您的想法一致,但是我现在遇到的问题是,即使删除掉所有的连续特征,然后对类别特征做任何常见的encoding操作,都会导致CV提升,而LB下降的特别厉害。另外5折训练不如单折200轮训练来的效果好(训练时间,CV以及LB),想请教下到底是什么原因呢?
前者cv上升,LB下降,一种是cv不稳定,很大可能是第二种线上指标是groupby求均值,可以尝试线下模拟线上的指标。第二个问题暂时我也不清楚。
https://lambda-xmu.club/2018/09/04/2019CCF-Work-Piece-EDA-Part2/
Data Competition