-
When I execute `convlab2/policy/mle/crosswoz/evaluate.py` or use ConvLab-2 to build a system to test, an error occurred aflter **load from model**
```
Load from model_file param
Load from .../Cross…
-
请问roberta的预训练数据是全都512长句,还是说像bert一样有10%的短句?
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: ubuntu 18.04
- 你使用的**Python**版本: 3.7.9
- 你使用的**Tensorflow**版本: 1.15
- 你使用的**Keras**版本: 2.3.1
- 你使用的**bert4keras**版本: 0.10.0
- 你使用纯**keras**还是**tf.kera…
-
使用其他模型名字可以使用(代码只改了模型名,全部使用transfomer 的Auto类),使用chinese-bert-wwm或者其他模型可以,但是使用guwenbert报cuda出错,在模型前馈计算时出错
![image](https://user-images.githubusercontent.com/22999510/108634011-6e644d80-74b2-11eb-8b14-2…
-
Ktrain should document how to provide support to use other BERT models (models in other languages) like BETO bert-base-spanish-wwm-uncased
https://github.com/dccuchile/beto
https://huggingface.c…
-
多谢
-
Hi,
I'm training a SentenceTransformer by using an existing spanish MLM model (bert-base-spanish-wwm-uncased) on a smallish labelled dataset. So far it works pretty well, but I'm trying to push it…
-
里面的那个 RAW_DATA_DIR = raw_data_random 。这个 raw_data_random 是什么文件,看代码是 Test 和 Stack 存放的文件夹?
但是这些文件在训练的时候放在 raw_data 里。 这里变成 raw_data_random 是有其他数据?
-
我使用cpu进行训练,但是在trainer.py的第136行:
loss=model(**batch_data)[0]
程序异常退出了。
我用的参数:
gpu_ids=-1
bert_type='roberta_wwm'
mode='train'
task_type='crf'
loss_type='ls_ce'
是一定要用gpu吗,还是我的安装有问题?
tensorf…
-
Hi, there's something strange with the model using transformers library:
```
In [5]: tokenizer = AutoTokenizer.from_pretrained("dccuchile/bert-base-spanish-wwm-uncased")
In [6]: tokenizer.model…