-
test.sh运行后读取ERNIE模型,我在https://github.com/nghuyong/ERNIE-Pytorch下载了ernie-1.0 (Chinese)模型,并将解压到文件放到bert/torch_ernie_1/下面,运行还是报错。请问你是在哪里下载的ERNIE模型,并做了什么处理呢?谢谢
-
```python
Weights from pretrained model not used in BertForPreTraining:
['bert.encoder.layer.0.attention.self.relative_positions_encoding.positions_encoding',
'bert.encoder.layer.1.attention.se…
-
您好,我在用您的chinese-roberta-wwm-ext-large模型做MLM任务时发现好像有bug。我分别尝试过google/bert的inference代码以及huggingface的Transformers工具的inference代码,好像都有明显的问题。以下是调用Transformers的代码:
```python3
from transformers import *…
-
03/16/2021 16:09:53 - INFO - transformers.modeling_utils - loading weights file /home/lab/Desktop/xf_event_extraction2020Top1-master/bert/torch_roberta_wwm/pytorch_model.bin
03/16/2021 16:16:01 - I…
-
您好,我有几个问题,想咨询一下:
1、中文使用WWM预训练时,会将"公司" tokenize 为 [“公”,"##司"],mask时,会将"公司"mask为“[[MASK],[MASK]]”,请问此时label是["公","司"]还是["公","##司"]?
2、如果label使用的是["公","##司"]来训练的话,那么训练的就是“##司”,而不是“司”;那么在后续模型的使用时,使用bert…
-
您好,非常感谢您这边的工作。
我最近在 transformers 中实现了 WWM 的 Fine-tune,相关 PR 已经被 merge 到 master 分支, 具体可以参见:[这里](https://github.com/huggingface/transformers/pull/7925)。
具体的实现参考了 #13 中的描述:对于BERT 的分词结果,使用 LTP 的分词结果,对…
-
## Environment info
- `transformers` version: 4.7.0.dev0
- Platform: NAME="Red Hat Enterprise Linux Server" VERSION="7.9 (Maipo)"
- Python version: Python 3.6.8 :: Anaconda, Inc.
- PyTorch ver…
-
**Description of Problem**:
today i want to use chinese_wwm_ext_L-12_H-768_A-12 model in my project in pipeline HFTransformersNLP ,but it crashed with "OSError: Unable to load weights from h5 file.…
-
```Exception has occurred: OSError
Can't load weights for 'hfl/chinese-bert-wwm-ext'. Make sure that:
- 'hfl/chinese-bert-wwm-ext' is a correct model identifier listed on 'https://huggingface.co/m…
-
train.sh中有{export BERT_TYPE="roberta_wwm" # roberta_wwm / ernie_1 / uer_large},去下载时有RoBERTa-wwm-ext、RoBERTa-wwm-ext-large、BERT-wwm-ext、BERT-wwm等版本,麻烦请问具体是哪一个呢?
另外{并将 vocab.txt 中的两个 unused 改…