-
这个脚本可以直接加载项目中罗列的模型么?还是只契合roberta
-
您好,提问两个论文中提到的点
- 论文中提到的`EOT`、 `EOU` token在代码中好像没有找到使用,请问是什么原因呢,是因为效果吗
- 论文中提到预训练后可以得到角色相关的向量,这个向量会应用在fine_tune任务中,但在代码实现中发现fine_tune任务没有使用到预训练产出的角色向量
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: linux
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本: 1.15
- 你使用的**Keras**版本: 没有单独pip 安装 Keras
- 你使用的**bert4keras**版本: 0.10.6
- 你使用纯**keras**还是**tf.ker…
-
## Environment info
- `transformers` version: 4.6.0.dev0
- Platform: Linux-5.4.0-1047-aws-x86_64-with-glibc2.10
- Python version: 3.8.8
- PyTorch version (GPU?): 1.8.1 (True)
- Tensorflow ver…
-
Here is what I ran:
```python
from transformers.hf_api import HfApi
from tqdm import tqdm
import pandas as pd
model_list = HfApi().model_list()
model_ids = [x.modelId for x in model_list]
…
-
执行
python convert_params.py --init_tf_checkpoint /home/work/leexy/Pretrain_model/Roberta_wwm_ext_large/bert_model.ckpt --fluid_params_dir ~/projects/pretrain_model
报错:
*** Error in `python': dou…
-
**Describe the question**
> A clear and concise description of what the question is.
运行lm的时候出现的问题.
在`git clone https://huggingface.co/hfl/chinese-bert-wwm`的文件放到了pretrained文件夹下面.
```python
# 当使用预训…
-
**Question**
Hi, it's great works you'd been made on this project.
I used this project for training on custom dataset, it has around 2000 examples. Label count is a little imbalance.Finally, I tra…
-
python version: 3.7.6
transformers: 4.6.1
tensorflow-cpu: 2.3.1
my code:
```python
from transformers import TFAutoModel
model = TFAutoModel.from_pretrained("./chinese-bert-wwm-ext")
```
and …
-
大佬好呀,
我下载了`chinese_roberta_wwm_ext_pytorch.zip`这个预训练模型,解压之后我这样加载的:
```
from transformers import BertTokenizer
from transformers import (
CONFIG_MAPPING,
MODEL_FOR_MASKED_LM_MAPPING,
…