Closed hjamet closed 1 year ago
Excellent sujet ! J'approuve. :+1:
J'approuve.
Le prof nous a finalement proposé le sujet suivant en lien avec les mécanismes d'attention : Dites ce que vous en pensez ! http://proceedings.mlr.press/v70/sundararajan17a/sundararajan17a.pdf
J'approuve, ça à l'air intéressant
Cette deuxième proposition de papier est nettement plus intéressante et utile, je trouve. Ça parle d'un outil assez efficace (rapide et facile à calculer) d'explicabilité de modèle : Integrated Gradient.
Je serai très heureux de pouvoir réimplémenter ce papier !
Lecture complémentaire :
Description
Ce projet consiste à réimplémenter les principales idées innovantes présentées dans un article de recherche en groupe de 5. Un mail doit être écrit au professeur le plus vite possible (edouardyvinec@hotmail.fr edouardyvinec@hotmail.fr;) avec l'article que nous avons choisi afin qu'il valide notre sujet.
Proposition
On propose de travailler sur une version simplifiée du mécanisme à l'origine du succès des transformers : Le mécanisme d'attention. À l'origine destiné au NLP, on finit par le trouver dans à peu près dans tous les domaines et tous les modèles parceque'en fait c'est génial. (https://www.connectedpapers.com/main/204e3073870fae3d05bcbc2f6a8e263d9b72e776/Attention-is-All-you-Need/graph)
Pour ce faire, on propose de travailler sur l'article suivant, antérieur au succès des transformers en 2017 : https://arxiv.org/abs/1601.06733 Dans les implémentations déjà effectuées par d'autres, on notera tout particulièrement ces repos qui semblent vraiment bien faits à première vue :
Dites-moi si vous approuvez le sujet ou si vous avez d'autres idées/remarques que je puisse envoyer le mail :)