aquadzn / gpt2-french

GPT-2 French demo | Démo française de GPT-2
https://aquadzn.github.io/gpt2-french/
68 stars 14 forks source link
docker french gpt-2 gpt2 language-model pytorch text-generation transformer

Edit Mai 2020

Ce repo est un peu en désordre et mal expliqué sur certains points.

Ayant accès au Tensorflow Research Cloud Program, je compte peut être entraîner from scratch (et non fine-tuner comme il est question ici) sur un gros dataset en français. Si cela abouti, j'archiverai ce qui est ici actuellement et j'écrirai une meilleure doc 👍

GPT-2 :fr:

Modèle GPT-2 d'OpenAI entraîné sur quatres différents jeux de données en français:

permettant de faire de la génération de texte.

Une démo utilisant pour chaque jeu de données un modèle GPT-2 Small (124M) est disponible à l'adresse suivante: https://gpt2.williamjacques.fr (service down)

Usage

Cloner ce repo

git clone https://github.com/aquadzn/gpt2-french.git

Tensorflow et gpt-2-simple sont necéssaires afin de fine-tuner GPT-2. Créer un environnement puis installer les deux packages pip install tensorflow==1.14 gpt-2-simple.

Un script et un notebook sont disponibles dans le dossier src afin de fine-tuner GPT-2 sur vos propres datasets. L'output de chaque entraînement, c'est à dire le dossier checkpoint/run1, est à mettre dans gpt2-model/model1 model2 model3 etc...

image

Vous pouvez lancer le script deploy_cloudrun.sh afin de déployer tous vos différents modèles (dans gpt2-model) d'un coup. Il faut cependant avoir déjà initialisé l'outil CLI gcloud (Cloud SDK).

Modèles

Releases

Crédits

Basé sur les repos GPT2-Simple et GPT2-CloudRun de minimaxir

Licence

MIT