Repository for the course "Project Machine Learning" during WiSe 24/25 at TU Berlin consisting of a replication of the paper "Neural Discrete Representation Learning" (van den Oord et al., 2018).
Habe am VAE und Autoencoder bisschen rumgepfusht. Bin aufjedenfall kompromissbereit was die architektur angeht, ich habe jetzt so nen mix aus unseren beiden gemacht. Beide sind jetzt mehr oder weniger gleich, nur halt das es bei dem encoder so aussieht als würde der ne latent dim von 4 ausspucken, aber die wird ja halbiert weil es einen mean und variance vector gibt aus denen dann der 2 dimensionale vector gesampled wird.
Habe am VAE und Autoencoder bisschen rumgepfusht. Bin aufjedenfall kompromissbereit was die architektur angeht, ich habe jetzt so nen mix aus unseren beiden gemacht. Beide sind jetzt mehr oder weniger gleich, nur halt das es bei dem encoder so aussieht als würde der ne latent dim von 4 ausspucken, aber die wird ja halbiert weil es einen mean und variance vector gibt aus denen dann der 2 dimensionale vector gesampled wird.