vitalwarley / research

3 stars 0 forks source link

Supervised Contrastive Learning for Pre-trained Language Model Fine-tuning #45

Closed vitalwarley closed 11 months ago

vitalwarley commented 11 months ago

Como podemos combinar entropia cruzada e perda contrastiva no contexto de reconhecimento de parentesco? É uma possível extensão a #26.

vitalwarley commented 11 months ago

Possível código, mas não necessariamente os autores originais -- nome diferente.

As curvas de treinamento e validação são ruins, mas os resultados são bons... estranho. A implementação da perda contrastiva é bem trivial, mas bem ineficiente também.

https://github.com/sl-93/SUPERVISED-CONTRASTIVE-LEARNING-FOR-PRE-TRAINED-LANGUAGE-MODEL-FINE-TUNING/blob/1e3a9ae81449e2abff52b666d4bf5d8473473e86/main.py#L250-L281

https://github.com/sl-93/SUPERVISED-CONTRASTIVE-LEARNING-FOR-PRE-TRAINED-LANGUAGE-MODEL-FINE-TUNING/blob/1e3a9ae81449e2abff52b666d4bf5d8473473e86/main.py#L380-L383

onde loss_fn é a perda de entropia cruzada.

vitalwarley commented 11 months ago

Notes

Summary

image

image

Image

Highlights

Introduction

Approach

Related Work

vitalwarley commented 11 months ago

A ideia do paper está sendo avaliada na #46.