lambda-xmu / lambda-xmu.github.io

Lambda Blog ->
https://lambda-xmu.club
MIT License
3 stars 0 forks source link

2019-09-04-2019CCF-Work-Piece-EDA - lambda 的博客 | Lambda Blog #8

Open lambda-xmu opened 5 years ago

lambda-xmu commented 5 years ago

https://lambda-xmu.club/2018/09/04/2019CCF-Work-Piece-EDA-Part2/

Data Competition

TillLindemann commented 5 years ago

大佬你好,我前两天就发现了这个连续特征的问题,跟您的想法一致,但是我现在遇到的问题是,即使删除掉所有的连续特征,然后对类别特征做任何常见的encoding操作,都会导致CV提升,而LB下降的特别厉害。另外5折训练不如单折200轮训练来的效果好(训练时间,CV以及LB),想请教下到底是什么原因呢?

lambda-xmu commented 5 years ago

@TillLindemann 大佬你好,我前两天就发现了这个连续特征的问题,跟您的想法一致,但是我现在遇到的问题是,即使删除掉所有的连续特征,然后对类别特征做任何常见的encoding操作,都会导致CV提升,而LB下降的特别厉害。另外5折训练不如单折200轮训练来的效果好(训练时间,CV以及LB),想请教下到底是什么原因呢?

前者cv上升,LB下降,一种是cv不稳定,很大可能是第二种线上指标是groupby求均值,可以尝试线下模拟线上的指标。第二个问题暂时我也不清楚。