-
非常感谢您开源这个项目,在使用过程中遇到了一些问题想请教一下。
我在之前的项目都是通过 冻结BERT+lstm进行后续任务,所以huggingface/transformers中都是直接用
```
bert_path = 'D:/pretrain/pytorch/albert_base/'
tokenizer = BertTokenizer.from_pretrained(bert_pat…
-
请问有跟刚发布的RoBERTa-wwm-ext对比的计划吗?
-
ValueError: Couldn't find 'checkpoint' file or checkpoints in given directory chinese_roberta_wwm_ext_L-12_H-768_A-12
尝试用 https://github.com/huggingface/pytorch-transformers/blob/master/pytorch_tra…
-
Traceback (most recent call last):
File "run_classifier_serving.py", line 1087, in
tf.app.run()
File "/data/aif/common/anaconda/envs/py3nlp_todd/lib/python3.6/site-packages/tensorflow/pyth…
-
这个模型是否也是在原Bert字模型的基础上进行增量mask词的方式训练得到的呢?关于这种方式的预训练代码后期能开放么?
-
在使用pytorch_transfomers加载chinese_roberta_wwm_ext_pytorch报错。( 使用【RobertaConfig, RobertaForSequenceClassification, RobertaTokenizer】加载)
-