Seleksi Fitur dr generate-an PolynomialFeatures. Kan banyak banget tuh fitur yg didapet dr PF, nah diseleksi aja mana yang paling ngaruh**
\ nah untuk yg ini aku baca (di Introduction for Statistical Learning), kalau misal nih fitur X1 x X2 (baca: interaksi X1 dan X2) itu berpengaruh, kita ngga boleh nge-exclude fitur X1 dan X2.
soalnya itu ada di hierarchical principle, "if we include interaction in a model, we should also include the main effects, even if the p-values associated with their coefficients are not significant".
alasannya karena kalau X1 x X2 'penting' maka X1 atau X2 secara terpisah itu 'penting' atau tidaknya tidak terlalu ngaruh (sangat eksplanatif), dan ada penjelasan lain kalau X1 x X2 itu berkorelasi sama X1 dan X2 shg kalau kita tinggalkan berpotensi akan mengubah 'meaning of interaction'
Seleksi Fitur dr generate-an PolynomialFeatures. Kan banyak banget tuh fitur yg didapet dr PF, nah diseleksi aja mana yang paling ngaruh**
\ nah untuk yg ini aku baca (di Introduction for Statistical Learning), kalau misal nih fitur X1 x X2 (baca: interaksi X1 dan X2) itu berpengaruh, kita ngga boleh nge-exclude fitur X1 dan X2. soalnya itu ada di hierarchical principle, "if we include interaction in a model, we should also include the main effects, even if the p-values associated with their coefficients are not significant". alasannya karena kalau X1 x X2 'penting' maka X1 atau X2 secara terpisah itu 'penting' atau tidaknya tidak terlalu ngaruh (sangat eksplanatif), dan ada penjelasan lain kalau X1 x X2 itu berkorelasi sama X1 dan X2 shg kalau kita tinggalkan berpotensi akan mengubah 'meaning of interaction'