creem un folder /data/images_dataset cu imagini 400x400 fara etichete, zicem 100 de imaginii
folosim modelul initial pentru a face predictii pe cele 100 de imagini, salvam prezicerile ca xml in aceasi mapa + csv cu scoruri pt sortare
sortam prezicerile dupa increderea modelului, alegem k=10 cele mai nesigure imagini si le mutam intr-o mapa data/training/iteratia_1 -> imagini si xlm preziceri, mutam nu copiem
corectam cele k=10 imagini din data/training/iteratia_1 cu labelimg, iarasi salvam corectarile ca xml
adaugam cateva m=2 exemple din data/training/iteratia_1 in data/test/iteratia_1
incarcam folderul data in drive
rulam in colab antrenarea modelului, salvam modelul in data/models/iteratia1/model.pl si raportul evaluarii in /data/models/iteratia1/raport.json
prezicem cele 90 de imagini ramase in /data/images_dataset si salvam ca xml
sortam prezicerile dupa increderea modelului, alegem k=10 cele mai neincrezute imagini si le mutam intr-o mapa data/training/iteratia_2 -> imagini si xlm preziceri, mutam nu copiem
descarcam data/training/iteratia_2 pe calculator
corectam cele k=10 imagini din data/training/iteratia_2 cu labelimg, iarasi salvam corectarile ca xml
adaugam cateva m=2 exemple din data/training/iteratia_1 in data/test/iteratia_2
incarcam xml-urile din data/training/iteratia_2 in drive
repetam de la pasul 7 pana avem un model bun sau terminam imaginile din /data/images_dataset