aquadzn / gpt2-french

GPT-2 French demo | Démo française de GPT-2
https://aquadzn.github.io/gpt2-french/
68 stars 14 forks source link

Utiliser les modèles déjà fine-tunés pour de la génération de texte #4

Closed manueltonneau closed 4 years ago

manueltonneau commented 4 years ago

Merci pour ce projet très intéressant. Je souhaite si possible utiliser les modèles déjà fine-tunés pour créer des bases de données de textes composés par GPT-2 en francais. Je vois sur le repo un notebook pour fine-tuner GPT-2 mais pas de ressources (à part le site, qui me semble down) pour produire directement du texte. Ai-je raté qqch?

Par ailleurs, si j'ai bien compris, tu as un modèle par base de données d'entrainement (tweets, rapports parlementaires, etc..). Est-ce que c'est parce que c'était trop coûteux sur le plan computationnel de fine-tuner directement sur toutes ces sources en même temps? Même question pour le type de modèle: il me semble que GPT2-XL est maintenant dispo sur le repo de hugging face, pourquoi ne pas l'utiliser?

Merci beaucoup d'avance pour tes réponses et joyeux noël!

manueltonneau commented 4 years ago

Pour les modèles pre-trained, je viens de trouver les releases, my bad!

aquadzn commented 4 years ago

Salut

Merci pour ce projet très intéressant. Je souhaite si possible utiliser les modèles déjà fine-tunés pour créer des bases de données de textes composés par GPT-2 en francais. Je vois sur le repo un notebook pour fine-tuner GPT-2 mais pas de ressources (à part le site, qui me semble down) pour produire directement du texte. Ai-je raté qqch?

Pour ça avec GPT-2-Simple et Transformers d'Huggingface tu as un paramètre nsamples pour choisir le nombre de texte à générer, tu pourrais faire un script vite fait pour append chaque texte généré dans un CSV

Par ailleurs, si j'ai bien compris, tu as un modèle par base de données d'entrainement (tweets, rapports parlementaires, etc..). Est-ce que c'est parce que c'était trop coûteux sur le plan computationnel de fine-tuner directement sur toutes ces sources en même temps? Même question pour le type de modèle: il me semble que GPT2-XL est maintenant dispo sur le repo de hugging face, pourquoi ne pas l'utiliser?

J'ai utilisé Colab et Kaggle pour entraîner du coup ce n'était pas payant. En regroupant les différents modèles en un seul, je n'aurai pas pu vraiment choisir quel type de texte générer. Les grosses versions de GPT-2 sont trop coûteuses en mémoire pour un simple conteneur du service CloudRun de GCP. Avec GPT-2-Simpkd en tout cas. Pas tester avec Transformers.

Sinon à propos de ça j'ai fait vite fait un packagé qui permet de déployer rapidement une app web de génération de texte avec un modèle issu de Transformers et j'aimerai bien avoir un retour 😀 https://github.com/aquadzn/deploy-transformers

manueltonneau commented 4 years ago

Merci pour ta réponse rapide :)

Pour ça avec GPT-2-Simple et Transformers d'Huggingface tu as un paramètre nsamples pour choisir le nombre de texte à générer, tu pourrais faire un script vite fait pour append chaque texte généré dans un CSV

Bien vu, je pensais faire ca. Dans les scripts que je trouve jusque la, ils importent des modèles dans GCP. Je vois pas encore de script qui utilise direct un modèle stocké en local mais je ne devrais pas tarder à tomber dessus.

J'ai utilisé Colab et Kaggle pour entraîner du coup ce n'était pas payant. En regroupant les différents modèles en un seul, je n'aurai pas pu vraiment choisir quel type de texte générer.

Peut être qu'il faudrait utiliser CTRL alors (https://arxiv.org/pdf/1909.05858.pdf)? Avec des control codes, tu peux controler le type de texte à géńerer. J'avais fait un notebook pour fine-tuner CTRL mais j'ai eu des erreurs et mon issue sur leur repo est restée sans réponse. Si t'as un moment pour checker le colab notebook et essayer par toi même, avec grand plaisir :)

Sinon à propos de ça j'ai fait vite fait un packagé qui permet de déployer rapidement une app web de génération de texte avec un modèle issu de Transformers et j'aimerai bien avoir un retour grinning https://github.com/aquadzn/deploy-transformers

Super projet encore une fois, je termine mes tests de génération mais un des objectifs pourrait etre apres de faire une webapp avec, je checkerai ca, merci pour la ref!

manueltonneau commented 4 years ago

Bien vu, je pensais faire ca. Dans les scripts que je trouve jusque la, ils importent des modèles dans GCP. Je vois pas encore de script qui utilise direct un modèle stocké en local mais je ne devrais pas tarder à tomber dessus.

J'ai réussi, c'était assez facile à faire :)

Une question: est-ce que tu aurais sous la main tes bases de données d'entrainement, notamment les tweets de Macron? Si oui, accepterais-tu de me les partager?

aquadzn commented 4 years ago

Je ne pense plus mais j'avais utilisé https://github.com/tweepy/tweepy qui est super utile pour Twitter

manueltonneau commented 4 years ago

Ok merci pour toutes ces infos :)