Closed bernardlemoullec closed 4 years ago
Bonsoir, Merci pour ces informations. Je souhaiterais utiliser GPT-2 pour générer du texte en français dans le cadre d'un projet d'études et c'est ainsi que j'ai trouvé votre projet sur GitHub. A ma connaissance, GPT-2 a été entraîné sur un corpus anglophone (WebText), aussi je m'interroge sur la possibilité de générer du texte français de qualité (au minimum syntaxiquement correct)... Pourrais-je vous poser quelques questions sur l'entraînement de votre modèle et les données utilisées s'il vous plaît ?
Bonsoir, Merci pour ces informations. Je souhaiterais utiliser GPT-2 pour générer du texte en français dans le cadre d'un projet d'études et c'est ainsi que j'ai trouvé votre projet sur GitHub. A ma connaissance, GPT-2 a été entraîné sur un corpus anglophone (WebText), aussi je m'interroge sur la possibilité de générer du texte français de qualité (au minimum syntaxiquement correct)... Pourrais-je vous poser quelques questions sur l'entraînement de votre modèle et les données utilisées s'il vous plaît ?
Oui c'est ça un mélange de Wikipedia, Reddit et autres
Pour pouvoir obtenir de bons résultats en français il faudrait déjà un bon corpus équivalent en français et une très grosse puissance de calcul (plusieurs milliers d'euros)
cf #8 pour les données utilisées
Merci beaucoup !
Hello,
I'm getting an error message every time I try generating text from https://aquadzn.github.io/gpt2-french/
Thanks and regards, Bernard