Open Eve0028 opened 3 months ago
1) Poprawa architektury modelu (np. więcej warstw, inne ilości, wymiary kerneli itp.) - warto poszperać jakie są najbardziej optymalne - lub zostawić do testowania jako hyper-parametry modelu. 2) Learning rate decay (zobacz czy opłaca się dodawać lr decay przy zastosowaniu optymalizatora Adam, który już taką funkcję zapewnia). 3) Testowanie hyper-parametrów:
binary_crossentropy
- chyba, że masz/macie inne pomysły),Adam'a
lub jego odmiany),Pierwsza implementacja #11
@EEG-PK/model Dobór hiper-parametrów, optymalizacja ogólna. (Optuna?)