-
多谢!多谢!多谢!
@yym6472
-
大佬好呀,
我下载了`chinese_roberta_wwm_ext_pytorch.zip`这个预训练模型,解压之后我这样加载的:
```
from transformers import BertTokenizer
from transformers import (
CONFIG_MAPPING,
MODEL_FOR_MASKED_LM_MAPPING,
…
-
执行
python convert_params.py --init_tf_checkpoint /home/work/leexy/Pretrain_model/Roberta_wwm_ext_large/bert_model.ckpt --fluid_params_dir ~/projects/pretrain_model
报错:
*** Error in `python': dou…
-
#904 跟904楼问题差不多,按照904帖子内容改过了,还是出问题
@Steffy-zxf
因为paddlehub1.8改变了finetune的调用方式,因此已经按照相关帖子进行了更改,在调用系统自动下载的数据集时
dataset = hub.dataset.MSRA_NER(tokenizer=tokenizer, max_seq_len=128)没问题,一旦切换到自定义的数据集,就会报…
-
运行:
```
CUDA_VISIBLE_DEVICES=2 python predict_cls.py --dataset=DuEE-Fin --event_type=enum -- max_len=256 --per_gpu_eval_batch_size=32 --model_name_or_path=/home/user/pretrained-model/chinese-roberta…
-
### 问题1 预训练模型的使用
> https://www.paddlepaddle.org.cn/hubdetail?name=chinese-roberta-wwm-ext-large&en_category=SemanticModel
> 我现在有一个可以生成token_id, segment_id, mask_id, label的generator对象, 我该怎么样喂数据给下面这…
-
RBTL3和RBT3的三层是怎么选取的?
-
Here is what I ran:
```python
from transformers.hf_api import HfApi
from tqdm import tqdm
import pandas as pd
model_list = HfApi().model_list()
model_ids = [x.modelId for x in model_list]
…
-
@Steffy-zxf
在使用paddle1.8进行finetune时,系统自动下载的数据集没问题,切换到自定义数据集finetune时,报错,错误如下:
```powershell
Traceback (most recent call last):
File "sequence_label.py", line 187, in
main()
File "se…
-
可能是构建模型时,`build_transformer_model`参数设置有问题,example中没有找到`residual_attention_scores`的参数使用样例,希望提供
### 基本信息
- 你使用的**操作系统**: ubuntu1~18.04
- 你使用的**Python**版本: Python 3.8.5
- 你使用的**Tensorflow**版本: t…