Open tm4roon opened 4 years ago
XGBoostをベースに、Gradient-based One-Side Sampling (GOSS)とExclusive Feature Bundling (EFB)を加え、性能を落とさずに計算を高速化した研究。
一般的に、決定木学習の計算量はO(#data × #features)である。そこで、#dataを減らす工夫としてGOSS、#featuresを減らす工夫としてEFBを提案している。
LightGBM: A Highly Efficient Gradient Boosting Decision Tree
XGBoostをベースに、Gradient-based One-Side Sampling (GOSS)とExclusive Feature Bundling (EFB)を加え、性能を落とさずに計算を高速化した研究。
一般的に、決定木学習の計算量はO(#data × #features)である。そこで、#dataを減らす工夫としてGOSS、#featuresを減らす工夫としてEFBを提案している。
文献情報