ItsellÀ ensikosketus Jupyter notebookkeihin, tuo VSCode plugari oli varsin nÀppÀrÀ. Kokeilin myös Anacondan kanssa ja hyvinhÀn projekti toimi. Kokeilin ensin oletuksilla, mutta mallin treenaaminen kesti melko kauan, niin pienensin opetuskierroksia kymmeneen, jolla sillÀkin tuli aika hyviÀ tuloksia ainakin Sigmoidilla.
Aktivaatiofunktioiden vertailu on helppoa ja model.fit() argumentteja pÀÀsee vÀÀntelemÀÀn nÀin halutessaan.
Koodi on todella selkeÀÀ, luokkien ja metodien nimet ovat kuvaavat ja johdonmukaiset. Testit menivÀt lÀpi ja testikattavuus nÀyttÀisi olevan erittÀin korkea.
Koska projekti on koodiltaan mielestÀni erittÀin laadukas, katselmoinnissa on otettu ihan pikkujuttujakin huomioon.
Muutama huomio/ehdotus:
neural_network notebook: kun neuroverkkoa on treenattu eri aktivaatiofunktioilla, tulostuu epochs ja activation function kuvaajat tulosten alle automaattisesti, mietin saisiko tÀhÀn myös ne numerokohtaiset tulokset automaattisesti, sillÀ nekin olivat kiinnostavia.
src/test_activation_functions.py#test_relu() ja test_relu_derivative() ovat duplikaatteja sisÀllöltÀÀn, ReakyReLu ja Tanh kÀyttÀmÀttömiÀ importteja
src/test_utilities.py split_every metodin testaamista voisi jatkaa n arvoilla, jotka ovat syötelistan pituuteen asti ja yli
Testisetti pitÀÀ sisÀllÀÀn 10 000 numeroa ja oikeaa vastausta. Kaikkien visualisoiminen ei vÀlttÀmÀttÀ olisi mielekÀstÀ. Mietinkin, ettÀ voisin jonkinlaisen aggregaatin muodostaa, kuten tilastoja mitkÀ numerot menevÀt vÀÀrin ja visualisoida vÀÀrÀt missÀ suurin luottamus (confidence).
Projekti ladattu 19.8, vika kommitti 17c1399
ErittĂ€in korkeatasoinen projekti! đđœ đđœ
ItsellÀ ensikosketus Jupyter notebookkeihin, tuo VSCode plugari oli varsin nÀppÀrÀ. Kokeilin myös Anacondan kanssa ja hyvinhÀn projekti toimi. Kokeilin ensin oletuksilla, mutta mallin treenaaminen kesti melko kauan, niin pienensin opetuskierroksia kymmeneen, jolla sillÀkin tuli aika hyviÀ tuloksia ainakin Sigmoidilla.
Aktivaatiofunktioiden vertailu on helppoa ja model.fit() argumentteja pÀÀsee vÀÀntelemÀÀn nÀin halutessaan.
Koodi on todella selkeÀÀ, luokkien ja metodien nimet ovat kuvaavat ja johdonmukaiset. Testit menivÀt lÀpi ja testikattavuus nÀyttÀisi olevan erittÀin korkea.
Koska projekti on koodiltaan mielestÀni erittÀin laadukas, katselmoinnissa on otettu ihan pikkujuttujakin huomioon.
Muutama huomio/ehdotus:
neural_network notebook: kun neuroverkkoa on treenattu eri aktivaatiofunktioilla, tulostuu epochs ja activation function kuvaajat tulosten alle automaattisesti, mietin saisiko tÀhÀn myös ne numerokohtaiset tulokset automaattisesti, sillÀ nekin olivat kiinnostavia.
src/test_activation_functions.py#test_relu() ja test_relu_derivative() ovat duplikaatteja sisÀllöltÀÀn, ReakyReLu ja Tanh kÀyttÀmÀttömiÀ importteja
src/test_utilities.py split_every metodin testaamista voisi jatkaa n arvoilla, jotka ovat syötelistan pituuteen asti ja yli
testikattavuusraportista voisi jÀttÀÀ itse testifilet pois, pytest-cov dokumentaation ohjeiden mukaan onnistui https://pytest-cov.readthedocs.io/en/latest/config.html?highlight=excluded.