Closed Sala2Code closed 2 months ago
Est ce que tu obtiens ça avec les anciennes expériences ou avec p=4 et p=5 ? J'ai l'impression que la simu engendre des Pg ou Tg beaucoup trop grande. En plus c'est sur les simulations avec des erreurs...
Tu peux essayer de ne pas transform les target qui ont des valeurs aberrantes et te contenter des features. Un truc comme ça dans DataTreatment.treat_data
:
# # Scale errors, but don't forget to fill nans temporarily
# scaled_errors = errors.copy()
# scaled_errors[scaler_cols] = self.scaler.transform_with_nans(errors[scaler_cols].values)
# Scale only features because targets can have aberrant values
scaled_errors = errors[self.features].copy()
scaled_errors[self.features] = self.scaler.transform_features(errors[self.features].values)
Au temps pour moi c'est au contraire de trop petites valeurs. Très étranges, vu que les features ne sortent pas des domaines de définition c'est surement les targets. Ca doit être mieux identifié. Si tu as la réponse je suis preneur.
Après la modification que tu propose dans MixedMinMaxScaler.transform
de remplacer les trop petites valeurs destinée au log en 1e-10 est très stylée.
if self.log_on:
# x_log_norm = self.scaler_log.transform(np.log(X[:, self.log_vars]))
X_log_safe = np.copy(X[:, self.log_vars])
X_log_safe[X_log_safe <= 0] = 1e-10
x_log_norm = self.scaler_log.transform(np.log(X_log_safe))
A toi de voir laquelle te plaît le plus 🥇
We did both changes finally.
I've got this error. I write it here to keep track the issue.