preprocessar alla filer genom att spara dem som numpy arrays istället för dicom eller png, sparar mycket (från ca 15-20 min generering per epok till ca 2 min per epok) tid. kan skriva om detta i metod
startade första långa träningssessionen på 60 epoker
värdenormalisering dvs intervall [-1,1] istället för [0,255] (pre)
Läsa mer om
Dilated Dense Networks (DDN)
Residual Networks
augmentering (rotera translatera etc så att positionsinfo är samma) (pre)
gaussisk faltning (post)
ta bort små öar/brus (post)
Mask RCNN
To Do
kör all preprocessing på flera kärnor
börja visualisera
i samma anda, titta på t-sne
titta upp accuracy
generera mer testdata (augmentering?)
titta upp hur batch size fungerar, varför stora batches fuckar ramen
titta upp om dice fungerar som loss function, annars alternativ
fixa generic keras conv nät för att kunna testa andra (egna) arkitekturer
pre- och postprocessing
undersök andra optimizers och learning rates (ex adam tar massa ram då en extra parameter (variabel learning rate) måste sparas per parameter i parametervektorn)
gör ett validation set (ex i keras fit generator eller genom att implementera en väljare)