-
### 🐛 bug 说明
感谢非常棒的工作!
请问下用在交互式模型上怎么样?
1.比如,输入query[sep]title 来通过模型,来判断是否相关。
2.如果不行的话,我加载m3e模型,继续把数据组织成交互式的方法来微调,是否比原生的bert好点呢?
### Python Version
None
-
按照 文档 https://github.com/zjunlp/DeepKE/tree/main/example/ee/standard#readme,
先执行 python run.py (用 DuEE数据)
然后执行python predict.py , 出现如下错误:
```
(deepke) [ping55@localhost standard]$ python predi…
-
# ❓ Questions & Help
## Details
```python
class MyModel(nn.Module):
def __init__(self, num_classes):
super(MyModel, self).__init__()
self.bert = BertModel.from_pretrained('…
-
您好,第一次用paddle,有如下问题想问下:
1,在GPU上训练:model.save_pretrained("./checkpoint')导出的模型,如何在CPU上推理使用?
2,在GPU上训练:paddle.save(model.state_dict(), save_param_path)保存的参数,直接在在CPU上初始化模型。直接load参数就可以在CPU上推理使用吧?
3,我现在想…
-
您好,我根据快速上手re的部分下载模型DeepKE(RE), RoBERTa-wwm-ext, Chinese,根据报错提示将re模型的下载内容置入\example\re\standard\data下,这里checkpoints应该选择快速部署中的内容还是根据lm.yaml中选择bert-base-chinese?此时仍旧不能成功部署,记录如下
cwd: C:\Users\LR\Deskto…
-
您好,我想对铁路领域的文本进行实体识别,由于铁路语料与通用语料差距较大,首先使用大量铁路领域无标注的文本对bert模型进行继续预训练。再将这个新得到的bert模型应用于bert-bilstm-crf模型中,是否会提高模型在铁路领域有标注的语料上的精度呢?
-
What is the version of transformers?
-
您好,很感谢您的工作!
我在tnews数据集上复现时p-tuning,使用RoBERTa-wwm-ext可以得到与论文相近的结果,但是改成RoBERTa-wwm-ext-large后结果很差,仅比random的结果好一点。
我更换模型时只更改了预训练模型的路径
```
base_model_path = './chinese_roberta_wwm_large_ext_L-24_H…
-
作者你好,我这边使用
`plm, tokenizer, model_config, WrapperClass = load_plm("roberta", "hfl/chinese-roberta-wwm-ext-large")`就会报错
`You are using a model of type bert to instantiate a model of type roberta. Thi…
-
训练文本多分类的数据,在train.py中修改num_classes,还是报错
model = ppnlp.transformers.BertForSequenceClassification.from_pretrained('bert-wwm-ext-chinese', num_class=9)
tokenizer = ppnlp.transformers.BertToken…