Prieskum related literatury na porovnanie nasej debiasing metody:
Don’t Take the Easy Way Out: popularny clanok, ktori si mnohi beru za referenciu pre porovnanie debiasingu aj na QA, napr nizsie uvedeny. Table 4 obsahuje porovnanie s inymi metodami, vratane baselinu = "reweighting" (trochu podobny nam)
Look at the First Sentence Table 2 > BERT: tri rozne debiasing metody, v prislusnom repe slubuju, ze by mohli byt aj implementovane. Inak je to starsi paper, tj. nie je to idealny zdroj.
Mind the Trade-off: Debiasing NLU Models: Confidence Regularization metoda: Nieco ine ako Product-of-Experts. Downweighting pravdepodobnosti samplov, ktore su oznacene ako biased.
TODO1: zvazit este implementaciu a evaluaciu bias-agnostic metody:
Learning from Others' Mistakes: training mensieho "biased" modelu, nachylnejsieho na modelovanie biasov a regularizacia expected scores pri trainingu velkeho modelu. Podobne distilacii.
TODO2: Ak na to bude miesto, evaluovat este cross-bias performance: performance modelu trenovaneho proti jednemu biasu na inych biasoch.
Precital som si odkazovane papere, vsetky sa porovnavaju s LearnedMixinom (clanok 1, Sekcia 3 - 3.5.1), ktory je instanciou "Product of Experts" metody (v clanku 1 refered as BiasProduct, Sekcia 3.2.3).
Zaver:
Implementovat LearnedMixin (clanok 1)
Implementovat Confidence Regularization by the distillation of biased learners (clanok 4)
Prieskum related literatury na porovnanie nasej debiasing metody:
Look at the First Sentence Table 2 > BERT: tri rozne debiasing metody, v prislusnom repe slubuju, ze by mohli byt aj implementovane. Inak je to starsi paper, tj. nie je to idealny zdroj.
TODO1: zvazit este implementaciu a evaluaciu bias-agnostic metody:
TODO2: Ak na to bude miesto, evaluovat este cross-bias performance: performance modelu trenovaneho proti jednemu biasu na inych biasoch.