Jak w tytule. Niebieski algorytm ma wielki problem gdy niebo jest jasne. Wykrywa wtedy kawałki nieba co jest oczywiste. Co jest mniej oczywiste wykrywa też inne obiekty, na których tworzy się niebieska poświata. Ludzkie oko może wiedzieć, że coś nie jest niebieskie, ale algorytm bezwględnie thresholduje kawałki zawierające niebieskie składowe.
Myślę, że jakiś preprocessing powinien załatwić sprawę. W tej chwili jest napisana equalizacja kontrastu ale nie jest używana, bo
bez niej algorytm (przynajmniej czerwony) działał lepiej. Trzeba tu koniecznie coś wymyślić, bo sieć neuronowa będzie miała ciężko, jak kilka razy na sekune otrzyma kawałek nieba.
Jak w tytule. Niebieski algorytm ma wielki problem gdy niebo jest jasne. Wykrywa wtedy kawałki nieba co jest oczywiste. Co jest mniej oczywiste wykrywa też inne obiekty, na których tworzy się niebieska poświata. Ludzkie oko może wiedzieć, że coś nie jest niebieskie, ale algorytm bezwględnie thresholduje kawałki zawierające niebieskie składowe.
Myślę, że jakiś preprocessing powinien załatwić sprawę. W tej chwili jest napisana equalizacja kontrastu ale nie jest używana, bo bez niej algorytm (przynajmniej czerwony) działał lepiej. Trzeba tu koniecznie coś wymyślić, bo sieć neuronowa będzie miała ciężko, jak kilka razy na sekune otrzyma kawałek nieba.