-
It may be a bug of multiprocessing with Datasets, when I disable the multiprocessing by set num_proc to None, everything works fine.
The script I use is https://github.com/huggingface/transformers/…
-
想问一下,地址都对,为什么还是不可以运行呢?
-
### Feature request
Adaptive pretraining methods like domain adaptive pretraining and task adaptive pretraining can benefit downstream tasks, which is illustrated in [https://aclanthology.org/2020.ac…
-
Hi,
The transformer models, like "bert-base-multilingual-uncased" could be introduced in "minicons" help compute taken surprisal or probabilities for different languages if we have a text
of th…
-
**Rasa version**:
2.8.1
**Rasa SDK version** (if used & relevant):
2.8.1
**Rasa X version** (if used & relevant):
**Python version**:
3.7.10
**Operating system** (windows, osx, ...)…
-
您好,波哥,我想在关系抽取模型上添加对抗训练方法,预训练模型使用的是ernie模型,请问需要改预训练模型的embding层嘛,因为我换了预训练模型后使用对抗训练没有效果
[
![image](https://user-images.githubusercontent.com/66951248/191635173-98919f4f-0c68-4072-b4cd-4157c963a38a.png)…
-
在下游任务NER上,直接对 huggingface 下载下来的基于 PyTorch 的中文整词掩码预训练模型 (chinese-bert-wwm-ext, chinese-roberta-wwm-ext, chinese-roberta-wwm-ext-large等) 进行微调,能得到不错的结果。现在想先在下游任务的语料上做无监督的 adaptive fine-tuning (相当于用下游任务的数…
-
提问时请尽可能提供如下信息:
### 基本信息
- 你使用的**操作系统**: ubuntu16.04
- 你使用的**Python**版本: 3.6
- 你使用的**Tensorflow**版本: 1.14-gpu
- 你使用的**Keras**版本: 2.3.1
- 你使用的**bert4keras**版本: 0.5.8
- 你使用纯**keras**还是**tf.ke…
-
你好
我跑MUGE数据集,看训练过程中的验证集指标一直没有变化如下:
2022-12-08,21:22:28 | INFO | Rank 1 | Validation Result (epoch 2 @ 4650 steps) | Valid Loss: 1.668444 | Image2Text Acc: 32.41 | Text2Image Acc: 32.94 | logit_scale…
-
## Environment info
- `transformers` version: 4.7.0
- Platform: linux
- Python version: 3.9.7
- PyTorch version (GPU?): 1.10.2 (cu111)
- Tensorflow version (GPU?): no
- Using GPU in script?: …