Repository for the course "Project Machine Learning" during WiSe 24/25 at TU Berlin consisting of a replication of the paper "Neural Discrete Representation Learning" (van den Oord et al., 2018).
Da es bei cifar eigentlich wenig sinn macht, das bild auf 128 x 128 hochzuskalieren, dachte ich es würde sinn machen die transforms in die Dataset klassen hardzucoden. Klingt vielleicht erstmal unschön aber habe überlegt und wenn wir eine generelle trainings funktion haben dann müssten wir entweder die dataset transforms als argument mit in unsere generelle trainings funktion übergeben oder halt alle datasets gleich transformieren und das macht glaube ich wenig sinn.
Da es bei cifar eigentlich wenig sinn macht, das bild auf 128 x 128 hochzuskalieren, dachte ich es würde sinn machen die transforms in die Dataset klassen hardzucoden. Klingt vielleicht erstmal unschön aber habe überlegt und wenn wir eine generelle trainings funktion haben dann müssten wir entweder die dataset transforms als argument mit in unsere generelle trainings funktion übergeben oder halt alle datasets gleich transformieren und das macht glaube ich wenig sinn.
Vielleicht überdenke ich das gerade auch