Closed chsnt closed 1 year ago
depending on which model you train
Small rugpt, like in example
4 gigabytes is enough for inference, and 9 gb for training (it all depends on the batch size). What equipment do you have?
I tested this code in google colab. It works fine
У меня не работает ни в colab, ни в Jupiter , ни на виртуальной машине с linux через ide Может быть есть требования к формату train.txt ? У меня строка через пустую строку
Строка1
Строка2
Строка3
...
На локальной машине 4гб видеопамяти и 64гб оперативной
Вы используете свои обучающие данные?
Если вы откроете оригинальный обучающий набор, то вы увидите формат)
<s>sample</s>
<s>sample</s>
4 гига мало, откройте код примера в google colab, и удалите строки где начинается загрузка с дропбокс. Потом просто загрузите эти данные через файловый менеджер google colab
Я так и сделал . Только свой дропбокс создал и заменил ссылку. Все также зависло на тренировке модели. Я думаю проблема в формате, попробую его изменить
Нужны ли эти html теги вроде <s></s>
?
Обязательно
4 часа исполняется в colab, это норма? Запускал без eval
какую видеокарту вам выдали?
Все, разобрался. Денчик, заходи в /pr , в нейротред
какую видеокарту вам выдали? Добрый день. Подскажите, пожалуйста, какой объём видеопамяти необходим для дообучения моделей Large и XL?
For finetune ruGPT3XL with batch size 1 we need around 32GB GPU Memory
Are there hardware requirements to execute the script?
I get the following error when executing ru-gpts/pretrain_transformers.py from example