-
paddlehub 2.0 文本分类任务怎么返回各类别概率 ,我看新的predict接口已经取消了return_result参数,那应该怎么使predict接口返回概率呢
-
-
I've just tried to load `SIKU-BERT/sikubert` but failed:
```py
>>> from transformers import AutoModel
>>> model = AutoModel.from_pretrained("SIKU-BERT/sikubert")
404 Client Error: Not Found for …
-
## Environment info
- `transformers` version: version: 4.3.3
- Platform: Linux-4.15.0-29-generic-x86_64-with-debian-stretch-sid
- Python version: 3.6.9
- PyTorch version (GPU?): 1.4.0 (True)
…
-
你好,我们的BERT-wwm-ext(tf)模型做ner和情感分类任务,在相同的配置也指定了随机种子的情况下,两次运行结果不同,换了google的BERT或roBERTa都不会出现这个问题。用部分样本训练发现,样本不多(20条)时结果是一样的,但训练样本大以后,结果就不同了。不知道什么原因,谢谢你的解答。
sirlb updated
3 years ago
-
您好,我在用您的chinese-roberta-wwm-ext-large模型做MLM任务时发现好像有bug。我分别尝试过google/bert的inference代码以及huggingface的Transformers工具的inference代码,好像都有明显的问题。以下是调用Transformers的代码:
```python3
from transformers import *…
-
loss下降一段时间后会越来越大,dev和test预测出来的都是一种类型
-
Here is what I've done to modify the "[jina-wikipedia-sentences](https://github.com/alexcg1/jina-wikipedia-sentences)" example, and try to apply it from English to Chinese:
1. Change the requiremen…
-
train.sh中有{export BERT_TYPE="roberta_wwm" # roberta_wwm / ernie_1 / uer_large},去下载时有RoBERTa-wwm-ext、RoBERTa-wwm-ext-large、BERT-wwm-ext、BERT-wwm等版本,麻烦请问具体是哪一个呢?
另外{并将 vocab.txt 中的两个 unused 改…
-
您好!在使用RoBERTa-wwm-ext-large模型的时候,我发现似乎缺少了MLM层的参数(预测句子中某个字几乎是乱的)。
请问确实是缺少了这层参数吗?能否发布添加了这层参数的RoBERTa-wwm-ext-large模型呢?